Pobierz streszczenie

Transkrypt

Pobierz streszczenie
Autor: Oniszczuk Walenty
Tytuł: Modele, algorytmy kolejkowe i strategie obsługi w systemach
komputerowych
Rok wydania: 2009
Liczba stron: 224
Format: B5
Cena: 22,00 zł
Więcej:
W monografii przedstawiono metody badań nad wydajnością systemów
komputerowych i modułów sieci teleinformatycznych oraz modele i algorytmy
analizy procesów losowych zachodzących w tych systemach. Stworzono modele
analityczne i symulacyjne pozwalające w sposób kompleksowy obliczać
podstawowe miary wydajności systemów komputerowych i parametry decydujące
o jakości obsługi w takich systemach. Zaproponowano i zrealizowano ideę
modelowania inteligentnych mechanizmów i algorytmów dostępu do zasobów
serwerów sieci. Mechanizmy te, w połączeniu z algorytmami analizy i liczenia
miar wydajności, składają się na specjalne pakiety programów do testowania
niestandardowych rozwiązań pewnych wybranych problemów dotyczących
właściwego wykorzystania zasobów serwerów sieci, czy zapewnienia gwarancji
założonego poziomu jakości świadczonych w nich usług.
Podstawowymi obiektami badań były dwuwęzłowe sieci stanowisk obsługi
typu zamkniętego. Rezultatem badań były efektywne algorytmy analizy tych sieci,
pozwalające obliczyć podstawowe miary wydajności i jakości obsługi.
W systemach tego typu, przy założeniu dowolnych rozkładów zmiennych
losowych czasu obsługi, badano wpływ priorytetowego szeregowania zadań na
miary wydajności w każdej klasie zadań oraz zaproponowano i badano algorytmy
obsługi wieloetapowej z obniżaniem priorytetów. Pokazano również, że wybór
innego rozkładu czasu obsługi niż wykładniczy, przy dużym współczynniku
obciążenia systemu, ma znaczący wpływ na miary wydajności, a wprowadzenie
algorytmu obsługi wieloetapowej wpływa korzystnie na obsługę zadań krótszych,
co pozwala rozsądnie gospodarować zasobami sieci.
Innym ważnym badanym zagadnieniem była analiza i modelowanie zjawisk
i koncepcji oraz strategii blokad, które ograniczają przyjęcia nowych zadań do
obsługi, gdy bufory węzłów obsługi są przepełnione, oraz badanie tego, jak te
zjawiska wpływają na parametry jakości świadczonych usług. Ogólnie rzecz
ujmując, można powiedzieć, że blokady w węzłach sieci restrykcyjnie hamują
intensywność przepływu informacji, przeciwdziałają przeciążeniom, ale pogarszają
jakość świadczonych usług. W pracy przedstawiono matematyczne modele,
opisujące koncepcje i strategie blokad w systemach typu zamkniętego, ponadto
przedstawiono szereg algorytmów analizy dwuwęzłowych i trójwęzłowych sieci
stanowisk obsługi typu otwartego z blokadami oraz zaproponowano sposoby
definicji i liczenia miar wydajności decydujących o jakości świadczonych w nich
usług. W części eksperymentalnej porównano efekty proponowanych strategii
przyjęć i obsługi zadań w takich systemach.
W osobnym rozdziale zaprezentowano modele i metody symulacji
komputerowej pracy pewnych zdefiniowanych węzłów obsługi, wykorzystując
dostępne na rynku pakiety, takie jak SIMSCRIPT II.5, czy MODSIM II firmy
CACI. Symulacja komputerowa jest naturalnym uzupełnieniem modelowania
analitycznego, pozwala ona również badać niestandardowe systemy, trudno
poddające się analizie matematycznej. Symulacja znakomicie rozszerza spektrum
analizowanych problemów, lecz jej wadą jest dość długi czas tworzenia kodów
źródłowych i ich logicznej walidacji. W takich modelach należy też stworzyć
mechanizmy automatycznego odrzucania części rozbiegowej oraz wypracować
takie metody automatycznego dobierania czasu eksperymentu, aby wyniki mieściły
się, z określonym prawdopodobieństwem, w zadanych przedziałach ufności.
Symulacja komputerowa pozwala również badać systemy, w których strumienie
wejściowe nie są stacjonarne, lecz podlegają gwałtownym fluktuacjom, tak jak to
często występuje w realnych systemach i sieciach komputerowych. Można tutaj też
opisywać i badać stany nieustalone i mechanizmy kontroli przepływu, na przykład
w przełącznikach sieciowych. Metoda ta pozwala wypracować ogólniejsze
rekomendacje co do doboru wielkości buforów w sieciach lub znaleźć strategie
polepszania jakości obsługi napływających pakietów.
Osobnym zagadnieniem jest koncepcja i modelowanie tzw. inteligentnych
kontrolerów dostępu do zasobów serwerów. Do ich budowy wybrano teorię
i algorytmy podwójnie włożonych procesów Markowa, określanych w literaturze
jako Ukryte Modele Markowa (ang. Hidden Markov Models - HMMs), w których
podstawowy proces jest nieobserwowalny, czyli ukryty, a działania
przeprowadzane są nie na macierzystym procesie, lecz na jego superpozycji, która
też jest procesem stochastycznym. Aby zbudować całościowy model kontroli,
połączono analityczne modele sieci stanowisk z procedurami Ukrytych Modeli
Markowa. Pozwoliło to, poprzez odpowiednie selekcje HMMs i dostosowanie ich
parametrów poprzez procedury treningów, zbudować modele inteligentnych
mechanizmów kontroli przepływu informacji w systemach informatycznych.
[Podsumowanie]

Podobne dokumenty