Pobierz streszczenie
Transkrypt
Pobierz streszczenie
Autor: Oniszczuk Walenty Tytuł: Modele, algorytmy kolejkowe i strategie obsługi w systemach komputerowych Rok wydania: 2009 Liczba stron: 224 Format: B5 Cena: 22,00 zł Więcej: W monografii przedstawiono metody badań nad wydajnością systemów komputerowych i modułów sieci teleinformatycznych oraz modele i algorytmy analizy procesów losowych zachodzących w tych systemach. Stworzono modele analityczne i symulacyjne pozwalające w sposób kompleksowy obliczać podstawowe miary wydajności systemów komputerowych i parametry decydujące o jakości obsługi w takich systemach. Zaproponowano i zrealizowano ideę modelowania inteligentnych mechanizmów i algorytmów dostępu do zasobów serwerów sieci. Mechanizmy te, w połączeniu z algorytmami analizy i liczenia miar wydajności, składają się na specjalne pakiety programów do testowania niestandardowych rozwiązań pewnych wybranych problemów dotyczących właściwego wykorzystania zasobów serwerów sieci, czy zapewnienia gwarancji założonego poziomu jakości świadczonych w nich usług. Podstawowymi obiektami badań były dwuwęzłowe sieci stanowisk obsługi typu zamkniętego. Rezultatem badań były efektywne algorytmy analizy tych sieci, pozwalające obliczyć podstawowe miary wydajności i jakości obsługi. W systemach tego typu, przy założeniu dowolnych rozkładów zmiennych losowych czasu obsługi, badano wpływ priorytetowego szeregowania zadań na miary wydajności w każdej klasie zadań oraz zaproponowano i badano algorytmy obsługi wieloetapowej z obniżaniem priorytetów. Pokazano również, że wybór innego rozkładu czasu obsługi niż wykładniczy, przy dużym współczynniku obciążenia systemu, ma znaczący wpływ na miary wydajności, a wprowadzenie algorytmu obsługi wieloetapowej wpływa korzystnie na obsługę zadań krótszych, co pozwala rozsądnie gospodarować zasobami sieci. Innym ważnym badanym zagadnieniem była analiza i modelowanie zjawisk i koncepcji oraz strategii blokad, które ograniczają przyjęcia nowych zadań do obsługi, gdy bufory węzłów obsługi są przepełnione, oraz badanie tego, jak te zjawiska wpływają na parametry jakości świadczonych usług. Ogólnie rzecz ujmując, można powiedzieć, że blokady w węzłach sieci restrykcyjnie hamują intensywność przepływu informacji, przeciwdziałają przeciążeniom, ale pogarszają jakość świadczonych usług. W pracy przedstawiono matematyczne modele, opisujące koncepcje i strategie blokad w systemach typu zamkniętego, ponadto przedstawiono szereg algorytmów analizy dwuwęzłowych i trójwęzłowych sieci stanowisk obsługi typu otwartego z blokadami oraz zaproponowano sposoby definicji i liczenia miar wydajności decydujących o jakości świadczonych w nich usług. W części eksperymentalnej porównano efekty proponowanych strategii przyjęć i obsługi zadań w takich systemach. W osobnym rozdziale zaprezentowano modele i metody symulacji komputerowej pracy pewnych zdefiniowanych węzłów obsługi, wykorzystując dostępne na rynku pakiety, takie jak SIMSCRIPT II.5, czy MODSIM II firmy CACI. Symulacja komputerowa jest naturalnym uzupełnieniem modelowania analitycznego, pozwala ona również badać niestandardowe systemy, trudno poddające się analizie matematycznej. Symulacja znakomicie rozszerza spektrum analizowanych problemów, lecz jej wadą jest dość długi czas tworzenia kodów źródłowych i ich logicznej walidacji. W takich modelach należy też stworzyć mechanizmy automatycznego odrzucania części rozbiegowej oraz wypracować takie metody automatycznego dobierania czasu eksperymentu, aby wyniki mieściły się, z określonym prawdopodobieństwem, w zadanych przedziałach ufności. Symulacja komputerowa pozwala również badać systemy, w których strumienie wejściowe nie są stacjonarne, lecz podlegają gwałtownym fluktuacjom, tak jak to często występuje w realnych systemach i sieciach komputerowych. Można tutaj też opisywać i badać stany nieustalone i mechanizmy kontroli przepływu, na przykład w przełącznikach sieciowych. Metoda ta pozwala wypracować ogólniejsze rekomendacje co do doboru wielkości buforów w sieciach lub znaleźć strategie polepszania jakości obsługi napływających pakietów. Osobnym zagadnieniem jest koncepcja i modelowanie tzw. inteligentnych kontrolerów dostępu do zasobów serwerów. Do ich budowy wybrano teorię i algorytmy podwójnie włożonych procesów Markowa, określanych w literaturze jako Ukryte Modele Markowa (ang. Hidden Markov Models - HMMs), w których podstawowy proces jest nieobserwowalny, czyli ukryty, a działania przeprowadzane są nie na macierzystym procesie, lecz na jego superpozycji, która też jest procesem stochastycznym. Aby zbudować całościowy model kontroli, połączono analityczne modele sieci stanowisk z procedurami Ukrytych Modeli Markowa. Pozwoliło to, poprzez odpowiednie selekcje HMMs i dostosowanie ich parametrów poprzez procedury treningów, zbudować modele inteligentnych mechanizmów kontroli przepływu informacji w systemach informatycznych. [Podsumowanie]