Pamięć wewnętrzna ROM i RAM

Transkrypt

Pamięć wewnętrzna ROM i RAM
Pamięć wewnętrzna
ROM i RAM
Pamięć
Pamięci półprzewodnikowe są jednym z
kluczowych elementów systemów
cyfrowych. Służą do przechowywania
informacji w postaci cyfrowej. Liczba
informacji, które mogą przechowywać
pojedyncze układy scalone pamięci,
zawiera się w zakresie od kilobajtów do
gigabajtów.
Podstawowe definicje dotyczące
pamięci
Pamięciami półprzewodnikowymi
nazywamy cyfrowe układy scalone
przeznaczone do przechowywania
większych ilości informacji w postaci
binarnej.
Pojemnością pamięci nazywamy maksymalną
liczbę informacji, jaką możemy przechować
w danej pamięci.
Pojemność pamięci podajemy w bitach (b) lub
bajtach (B).
• Czasem dostępu do pamięci nazywamy
czas, jaki musi upłynąć od momentu podania
poprawnego adresu słowa w pamięci do
czasu ustalenia się poprawnej wartości tego
słowa na wyjściu pamięci w przypadku
operacji odczytu lub w przypadku operacji
zapisu - czas, jaki upłynie do momentu
zapisania wartości do tego słowa z wejścia
pamięci.
• W technice komputerowej używane są
głównie pamięci półprzewodnikowe o
dostępie swobodnym (w odróżnieniu od
dostępu sekwencyjnego).
• Pamięcią o dostępie swobodnym
nazywamy pamięć, dla której czas
dostępu praktycznie nie zależy od adresu
słowa w pamięci, czyli od miejsca, w
którym j e s t przechowywana informacja.
• Pamięć sekwencyjna (ang. sequential
memory, sequential access memory, serial
access memory) – pamięć, której dane są
dostępne w kolejności ich zapisania na
nośniku przesuwanym pod głowicą
odczytująco-zapisującą, np. pamięć
taśmowa. Czas dostępu w tak
zorganizowanej pamięci zależy od
odległości głowicy od położenia danych.
Transferem danych pamięci nazywamy maksymalną
liczbę danych, jaką m o ż e m y odczytywać z pamięci
lub zapisywać do pamięci w jednostce czasu.
• Transfer danych pamięci może być podawany w
jednostkach informacji na sekundę (na przykład w MB/s),
jednak znacznie częściej dla modułów pamięci
stosowanychnych w PC podaje się częstotliwość zegara
taktującego transfer lub liczbę t r a n s f e r ó w na
sekundę (np. MT/s). W dwóch ostatnich przypadkach,
chcąc obliczyć t r a n s f e r danych, czyli
przepustowość, musimy znać liczbę bitów przesyłanych
w jednym transferze.
Podział pamięci
• Ze względu na własności użytkowe
pamięci półprzewodnikowe możemy
podzielić na pamięci RAM i ROM.
Pamięć RAM
• Pamięcią RAM nazywamy pamięć
półprzewodnikową o dostępie swobodnym
przeznaczaną do zapisu i odczytu. RAM
jest pamięcią ulotną, co oznacza, że po
wyłączeniu jej zasilania informacja w niej
przechowywana jest tracona.
Pamięć ROM
• Pamięcią ROM nazywamy pamięć
półprzewodnikową o dostępie swobodnym
przeznaczaną tylko do odczytu. ROM jest
pamięcią nieulotną.
Zastosowanie pamięci RAM i ROM
Z podanych własności pamięci wynikają ich
zastosowania w technice komputerowej. Z
pamięci RAM buduje się pamięć operacyjną
komputera przeznaczoną do przechowywania, w
trakcie pracy systemu, danych oraz programów
(gdyż R A M j e s t pamięcią do zapisu i
odczytu).
W pamięci ROM przechowuje się programy
inicjalizuje pracę komputera, gdyż muszą być
one przechowywane w pamięci nieulotnej.
Podział pamięci RAM
• Ze względu na technologię wykonania
pamięci RAM dzielimy na dwie podstawowe
grupy:
 pamięci dynamiczne - DRAM,
 pamięci statyczne - SRAM
Pomiędzy tymi dwoma grupami pamięci występują
istotne różnice w ich parametrach i własnościach
użytkowych.
– Pamięci dynamiczne są wolniejsze od pamięci
statycznych, natomiast są znacznie tańsze
(szczególnie gdy uwzględnimy koszt jednego bitu).
– Ponadto pamięci dynamiczne znacznie łatwiej
podlegają scalaniu, co oznacza, że dla
porównywalnej wielkości układu uzyskujemy w nich
znacznie większe pojemności.
– Wadą pamięci dynamicznych jest również fakt, że dla
poprawnego ich funkcjonowania konieczny jest tak
zwany proces odświeżania. Polega on na
cyklicznym, ponownym zapisie przechowywanej
informacji do komórek tej pamięci.
Zastosowanie SRAM i DRAM
Pamięci dynamiczne stosowane są do budowy głównej
pamięci operacyjnej komputera, co wynika z ich niskiej
ceny i dużych pojemności układów scalonych tej
pamięci.
Wadą tych pamięci w porównaniu z pamięciami
statycznymi jest przede wszystkim szybkość ich
działania. Jednak ze względów ekonomicznych (cena) i
technologicznych (mniejszy stopień scalenia) nie można
zbudować pamięci operacyjnej z pamięci statycznych.
Dlatego w systemach komputerowych stosuje się
t a k z w a n ą pamięć podręczną (cache), o znacznie
mniejszej pojemności w porównaniu z pamięcią
operacyjną. Pamięć cache buduje się z szybkich pamięci
statycznych.
Organizacja pamięci
• Podstawowe wyprowadzenia układu
pamięci półprzewodnikowej są pokazane
na rysunku poniżej
•
•
•
•
Szyna wejścia/wyjścia danych DB,
służy do wprowadzania i
wyprowadzania informacji do i z
pamięci.
Wejście adresowe AB służy do
dokonania wyboru, na którym z wielu
słów w pamięci zastanie wykonana
operacja (zapisu bądź odczytu).
Wejście sterujące R/W# informuje
układ pamięci , jakiego r o d z a j u
operacja będzie wykonywana: odczyt
c z y zapis.
Wejście C S # służy do uaktywnienia
układu pamięci. Wejście to jest
używane przy budowie z e s p o ł ó w
pamięci metodą łączenia dwóch lub
więcej układów scalonych pamięci.
• Adresem nazywamy niepowtarzalną
liczbę (numer) przypisaną danemu
miejscu (słowu) w pamięci w celu jego
identyfikacji.
• Słowem w pamięci nazywamy zestaw
pojedynczych komórek (pojedynczych
bitów) pamięci, do którego odwołujemy się
pojedynczym adresem.
• Liczbę bitów w pojedynczym słowie
pamięci będziemy nazywać długością
słowa pamięci. Zauważmy, że długość
słowa pamięci musi być równa liczbie
wyprowadzeń szyny wejścia/wyjścia, gdyż
słowa są wprowadzane i wyprowadzane z
p a m i ę c i równolegle.
• Z warunku unikalności adresu (czyli niepowtarzania się
tego samego adresu – co jest oczywiste) wynika z kolei
minimalna liczba linii szyny adresowej. Przy m – bitowej
szynie adresowej mamy do dyspozycji 2m różnych
adresów.
• Jeżeli liczba słów przechowywanych w pamięci wynosi
N, musi być spełniony warunek:
N 2
m
lub inaczej, aby poprawnie zaadresować N słów,
potrzebujemy m - log2 N bitów adresu (lub linii
adresowych).
• Wartość pojemności pamięci, długości
słowa oraz liczby linii adresowych wiąże
prosty i oczywisty wzór.
Jeżeli pojemność pamięci oznaczymy przez
M, długość słowa przez n, a liczbę linii
adresowych przez m, to spełniona jest
zależność:
ORGANZACA PAMIĘCI
Organizacją pamięci nazywamy sposób
podziału obszaru pamięci na słowa.
• Pojęcie organizacji pamięci najprościej wyjaśnić
na przykładzie. Pamięci narysowane
symbolicznie na rysunku 2 a i b mają tę samą
pojemność wynoszącą 32b,różnią się natomiast
organizacją. Pamięć z rysunku a ma organizację
bitową. Możemy o niej powiedzieć, że jest to
pamięć 32 x Ib. Pamięć z rysunku b ma
organizację bajtową, czyli jest to pamięć 4 x 8b
(lub inaczej 4 x IB).
• Zwróćmy przy okazji uwagę na liczbę linii
danych i adresowych dla każdej z tych pamięci.
Zasada działania
Układ pamięci składa się z matrycy, dekodera
i układów zapisu/odczytu. Każda komórka
tej pamięci wchodzi w skład matrycy
i zbudowana jest z pojedynczego
tranzystora i kondensatora. Potrafi ona
przechowywać jeden bit informacji (0 lub 1).
Komórki te posiadają swój adres, czyli
numer wiersza i kolumny.
Do poszczególnych komórek możemy
odwoływać się w dowolnej kolejności, więc
jest to pamięć o dostępie swobodnym (RAM
- Random Access Memory). Dekoder za
pomocą szyny adresowej otrzymuje adresy
komórek z kontrolera pamięci, znajdującego
się najczęściej w chipsecie na płycie
głównej. Docelowe komórki zostają
odczytane i ich zawartość jest wysyłana
z powrotem do kontrolera szyną danych.
Schemat budowy układu pamięci
Cykl pracy pamięci RAM jest wyznaczany za pomocą specjalnego zegara.
W pamięciach SDR-SDRAM, DDR-SDRAM i RDRAM jest on
zsynchronizowany z zegarem procesora. Adresowanie i odczyt pamięci
zapoczątkowane zostają pojawieniem się sygnałów na szynie
adresowej. Sygnał RAS (ang. Row Address Strobe) informuje pamięć,
że jest to adres rzędu matrycy, a sygnał CAS (ang. Column Address
Strobe) informuje, że jest to adres kolumny matrycy. Na przecięciu
wybranego rzędu i kolumny znajduje się docelowa komórka, z której
będą pochodzić dane. Do odczytu następnych komórek danego rzędu
pamięci SDR-SDRAM nie potrzebna jest już ponowna procedura
wybierania adresu.
Cykl pracy pamięci
Budowa współczesnych pamięci
RAM
Układ SPD
– w nim producent
zapisuje domyślne
parametry działania
pamięci
Kości pamięci
– to w nich
przechowywane są
dane
Złącze krawędziowe
– przez nie odbywa się
wymiana danych między
pamięcią a płytą główną
Rodzaje pamięci
1.
2.
3.
4.
5.
6.
7.
8.
9.
PAMIĘĆ DIP
PAMIĘĆ SIPP
PAMIĘĆ SIMM
PAMIĘĆ DIMM
PAMIĘĆ SDRAM
PAMIĘĆ DDR
PAMIĘĆ DDR2
PAMIĘĆ RIMM
PAMIĘĆ DDR3
DIP (ang. Dual In-line Package), czasami
nazywany DIL – w elektronice rodzaj obudowy
elementów elektronicznych, głównie układów
scalonych o małej i średniej skali integracji.
Wyprowadzenia elementu umieszczone są w równej
linii na dwóch dłuższych bokach prostokątnej
obudowy.
DIP (ang. Dual Inline Package)
Obudowy typu DIP produkowane są z wersjach DIP4
(cztery wyprowadzenia), DIP8 (osiem wyprowadzeń),
DIP14 (czternaście wyprowadzeń), DIP16, DIP20 i
większych. Produkowane są także obudowy typu
SDIP, SK-DIP i innych, które różnią się od obudów DIP
wymiarami, odległością między wyprowadzeniami itp.
Obudowy typu DIP przeznaczone są do montażu
przewlekanego (ang. THT, Through-Hole Technology).
Odległość między wyprowadzeniami to 2,54 mm.
Pozostałe wymiary obudów DIP także są
ustandaryzowane, ale różne w zależności od liczby
wyprowadzeń.
Ilość wyprowadzeń (pinów) wynosi 8, 14, 16, 18, 20,
22, 24, 28, 32, 36, najwyżej 40, 42, 48, rzadko 64.
SIPP (z ang. Single
Inline Pin Package)
SIPP (z ang. Single Inline Pin
Package) jest drugą generacją
pamięci DRAM, która powstała w
wyniku zapotrzebowania na rynku na
łatwy w montażu na płycie głównej
rodzaj pamięci RAM. Układ SIPP używał
30 pinów wzdłuż obrzeża i
wyeliminował potrzebę, aby każdy chip
DRAM był montowany indywidualnie.
SIPP zrewolucjonizował sposób, w jaki
komputery osobiste (PC) używały
pamięci RAM, ponieważ znacznie
szybciej można go było zmienić na
inny model.
SIMM (z ang. Single Inline Memory Module) to
pojedynczy moduł pamięci liniowej. Jest to następna po
SIPP generacja pamięci DRAM.
Istotną innowacją w układzie SIMM było to, że nie
posiadał od wystających elementów tzw. pinów tak jak
w poprzedniej wersji DRAM, którą był SIPP, ponieważ
były one umieszczone na powierzchni płytki
montażowej. Inną ważną zmianą było też takie fizyczne
ukształtowanie płytki pamięci SIMM, aby nie było można
zainstalować jej niewłaściwie. Technicznie pomogło to
wyeliminować możliwość potencjalnych uszkodzeń w
trakcie montażu układu pamięci na płycie głównej.
Moduły SIMM można podzielić na:
SIMM (z ang.
Single Inline
Memory Module)
* starsze 30-pinowe (8 lub 9 bitowe): 256KB,
1MB, 4MB, 16MB
* nowsze 72-pinowe (32 lub 36 bitowe): 1 MB, 2
MB, 4 MB, 8 MB, 16 MB, 32 MB, 64 MB, 128 MB
SO DIMM (ang. Small Outline Dual
In-line Memory Module) – mniejszy
rodzaj pamięci DIMM, stosowany
głównie w notebookach, komputerach
małogabarytowych oraz w niektórych
drukarkach biurowych wysokiej klasy.
Najpopularniejsze typy SO DIMM
* 72-pinowe (32-bitowe)
* 144-pinowe (64-bitowe)
* 200-pinowe pamięci DDR SDRAM
i DDR-II SDRAM
SO DIMM (ang. Small
Outline Dual In-line
Memory Module)
SDR SDRAM (ang. Single Data Rate
Synchronous Dynamic Random
Access Memory) - to pamięć
dynamiczna, (dawniej nazywana po
prostu SDRAM, po wprowadzeniu
techologii DDR SDRAM został dodany
przedrostek SDR) synchroniczna,
zbudowana na kondensatorach i
tranzystorach. Synchroniczna, ponieważ
działa ona zgodnie z przebiegiem taktu
zegara procesora (współpraca z
magistralą systemową).
Pamięć SDR SDRAM jest taktowana
częstotliwościami 66, 100 i 133 MHz.
Produkowane były kości 16, 32, 64, 128,
256 i 512 MB. Produkcja została
zaprzestana z powodu pojawienia się DDR
- szybszych i wydajniejszych pamięci,
SDR SDRAM (ang. Single Data Rate których wielkość dochodzi już do 2 GB.
Synchronous Dynamic Random
Access Memory)
DDR SDRAM (ang. Double Data Rate Synchronous
Dynamic Random Access Memory) Pamięci te
budowane są w obudowach TSOP jak i BGA i mogą
wytrzymać temperaturę do 70°C. Kości przeznaczone
dla płyt głównych zawierające moduły DDR SDRAM
posiadają 184 styki kontaktowe i jeden przedział (w
odróżnieniu od SDR SDRAM, który ma ich 168 oraz dwa
przedziały).
Działanie
DDR SDRAM (ang. Double Data
Rate Synchronous Dynamic
Random Access Memory)
Produkcję pamięci DDR SDRAM rozpoczęto w 1999
roku. Jest ona modyfikacją dotychczas stosowanej
pamięci SDRAM (ang. Synchronous Dynamic RAM). W
pamięci typu DDR SDRAM dane przesyłane są w czasie
trwania zarówno rosnącego jak i opadającego zbocza
zegara, przez co uzyskana została dwa razy większa
przepustowość niż w przypadku konwencjonalnej
SDRAM typu PC-100 i PC-133. Kości zasilane są
napięciem 2,5 V a nie 3,3 V, co wraz ze zmniejszeniem
pojemności wewnątrz układów pamięci, powoduje
znaczące ograniczenie poboru mocy. Czas dostępu do
danych znajdujących się w pamięci RAM, który dla
najnowszych pamięci DDR-SDRAM wynosi ok. 4 ns. W
najnowszych układach DDR4 stosowanych w kartach
graficznych opóźnienie sięga 1 ns.
DDR2 SDRAM (ang. Double Data Rate 2
Synchronous Dynamic Random Access
Memory) – kolejny po DDR standard
pamięci RAM typu SDRAM, stosowany w
komputerach jako pamięć
operacyjna.Charakteryzuje się wyższą
efektywną częstotliwością taktowania (533,
667, 800, 1066 MHz) oraz niższym
poborem prądu. Podobnie jak DDR, pamięć
DDR2 wykorzystuje do przesyłania danych
wznoszące i opadające zbocze sygnału
zegarowego, czego nie należy mylić z
technologią dual channel.
Pamięci DDR2 budowane są w obudowach
FBGA (ang. Fine-pitch Ball Grid Array).
Mogą pracować w temperaturze do 70°C.
DDR2 SDRAM (ang. Double Data
Rate 2 Synchronous Dynamic
Random Access Memory)
Moduły pamięci DDR2 nie są kompatybilne z
modułami DDR. Obecnie DDR2 obsługiwane
są zarówno przez procesory firmy Intel jak i
AMD.
RIMM (ang. Rambus Inline Memory
Module) – jeden z rodzajów kości pamięci
komputerowej, na którym umieszczone są
układy scalone z pamięcią Rambus DRAM
(RDRAM).
Najpopularniejsze kości typu RIMM:
*
*
*
*
160-pinowe,
184-pinowe,
232-pinowa,
326-pinowa,
stosowane
stosowane
stosowane
stosowane
SO-RIMM
RIMM 16-bitowe
RIMM 32-bitowe
RIMM 64-bitowe
Kości 16-bitowe pamięci RIMM na płytach
głównych muszą być montowane w parach,
kości 32-bitowe mogą być instalowane
pojedynczo. Każde niewykorzystane gniazdo
pamięci na płycie głównej (ang. slot) musi być
zamknięte specjalną zaślepką.
RIMM (ang. Rambus Inline
Memory Module)
Kości pamięci RIMM wyposażone są w radiator,
konieczny do odprowadzania nadmiaru ciepła.
DDR3 SDRAM (ang. Double Data Rate Synchronous
Dynamic Random Access Memory (ver. 3) – nowy standard
pamięci RAM typu SDRAM, będący rozwinięciem pamięci DDR i
DDR2, stosowanych w komputerach jako pamięć operacyjna.
Pamięć DDR3 wykonana jest w technologii 90 nm, która
umożliwia zastosowanie niższego napięcia (1,5 V w porównaniu z
1,8 V dla DDR2 i 2,5 V dla DDR). Dzięki temu pamięć DDR3
charakteryzuje się zmniejszonym poborem mocy o około 40% w
stosunku do pamięci DDR2 oraz większą przepustowością w
porównaniu do DDR2 i DDR. Pamięci DDR3 nie będą kompatybilne
wstecz, tzn. nie będą współpracowały z chipsetami obsługującymi
DDR i DDR2. Posiadają także przesunięte wcięcie w prawą stronę
w stosunku do DDR2 (w DDR2 wcięcie znajduje się prawie na
środku kości).
Obsługa pamięci DDR3 przez procesory została wprowadzona w
2007 roku w chipsetach płyt głównych przeznaczonych dla
procesorów Intel oraz w 2009 roku w procesorach firmy AMD.
Moduły DDR3
DDR3 SDRAM (ang. Double
Data Rate Synchronous
Dynamic Random Access
Memory
* PC3-6400 o przepustowości 6,4 GB/s, pracujące z częstotliwością 800 MHz
* PC3-8500 o przepustowości 8,5 GB/s, pracujące z częstotliwością 1066
MHz
* PC3-10600 o przepustowości 10,6 GB/s, pracujące z częstotliwością 1333
MHz
* PC3-12700 o przepustowości 12,7 GB/s, pracujące z częstotliwością 1600
MHz
* PC3-15000 o przepustowości 15 GB/s, pracujące z częstotliwością 1866
MHz
* PC3-16000 o przepustowości 16 GB/s, pracujące z częstotliwością 2000
MHz
Dual Channel
Jest to technologia stosowana w płytach
głównych do wydajniejszej obsługi
pamięci DDR. Polega na podwojeniu
przepustowości przesyłu danych przez
magistralę łączącą pamięć RAM
z kontrolerem pamięci.
Technologia Dual Channel wykorzystuje
dwa 64-bitowe kanały, co razem daje
kanał szerokości 128 bitów dla przesyłu
danych pomiędzy pamięcią RAM
a procesorem (zamiast jednego
64-bitowego w zwykłym trybie).
Technologia Dual Channel wymaga umieszczania kości pamięci
parami w skorelowanych ze sobą gniazdach (gniazda te na
płycie głównej oznaczone są najczęściej odpowiednimi
kolorami). Kości pamięci tworzące parę powinny być takie same.
Możliwe jest także używanie podobnych pamięci różnych
producentów, pod warunkiem, że są one tego samego rozmiaru
i mają taką samą architekturę.
Kontroler pamięci działający w trybie Dual Channel zastosowano po
raz pierwszy w chipsecie nForce 2 firmy Nvidia.
Pamięć ROM
ROM (ang. read only memory) jest pamięcią
nieulotną, przeznaczoną tylko do odczytu.
Nieulotność oznacza, że po wyłączeniu napięcia
zasilania tej pamięci informacja w niej
przechowywana nie jest tracona (zapominana).
Określenie, że jest to pamięć tylko do odczytu
nie jest równoznaczne z tym, że zawartości t e j
p a m i ę c i w określonych warunkach nie
można zmieniać. Dla niektórych typów
technologicznych pamięci ROM jest to możliwe.
Podstawowe typy pamięci ROM
•
•
•
•
MROM (ang. mascable ROM) - pamięci, których zawartość jest ustalana w procesie
produkcji (przez wykonanie odpowiednich masek - stąd nazwa) i nie może być
zmieniana. Przy założeniu realizacji długich serii produkcyjnych jest to najtańszy
rodzaj pamięci ROM. W technice komputerowej dobrym przykładem zastosowania
tego typu pamięci jest BIOS obsługujący klawiaturę.
PROM (ang. programmable ROM) - pamięć jednokrotnie programowalna. Oznacza
to, że użytkownik może sam wprowadzić zawartość tej pamięci, jednak potem nie
można jej już zmieniać. Cecha ta wynika z faktu, że programowanie tej pamięci
polega na nieodwracalnym niszczeniu niektórych połączeń wewnątrzniej. Obecnie
ten typ pamięci nie jest już używany.
EPROM - pamięć wielokrotnie programowalna, przy czym kasowanie poprzedniej
zawartości tej pamięci odbywa się drogą naświetlania promieniami UV.
Programowanie i kasowanie zawartości tej pamięci odbywa się poza systemem, w
urządzeniach zwanych odpowiednio kasownikami i programatorami pamięci EPROM.
Pamięć ta wychodzi już z użycia.
EEPROM - pamięć kasowana i programowana na drodze czysto elektrycznej.
Wykonanie tych operacji wymaga użycia zewnętrznego urządzenia. Istnieje
możliwość wprowadzenia zawartości tego typu pamięci bez wymontowywania jej z
systemu (jeżeli oczywiście jego projektant przewidział taką opcję), choć czas zapisu
informacji jest nieporównywalnie dłuższy niż czas zapisu do pamięci RAM. W tego
typu pamięci przechowywany jest tak zwany Flash BIOS, czyli oprogramowanie
BIOS, które może być uaktualniane (przez wprowadzanie jego nowej wersji).
• Flash - rozwinięcie koncepcji pamięci EEPROM. Przez
dołączenie odpowiednich układów możliwe jest
kasowanie i ponowne programowanie tej pamięci bez jej
wymontowywania z urządzenia. Istnieją dwie odmiany tej
pamięci oznaczane jako NOR i NAND. Pierwsza cechuje
się dłuższym czasem kasowania i zapisu, ma za to
dostęp swobodny, nadaje się więc do przechowywania
na przykład programów. Przykładowym zastosowaniem
jest przechowywanie BIOS-u, który można
unowocześniać (Flash BIOS). Pamięć typu NAND
przypomina własnościami dysk twardy, ma dostęp
częściowo sekwencyjny i dlatego jest predestynowana
do przechowywania informacji typu multimedialnego.
Przykładami zastosowań
• są karty pamięci do aparatów fotograficznych, pamięci
wymienne (tak zwane pen drive) czy też odtwarzacze
plików MP3, MP4.

Podobne dokumenty