Michał Szczerbowski
Transkrypt
Michał Szczerbowski
Michał Szczerbowski nr ind:133378 IV rok INF/INS Wrocław, dn. 04.06.2007 Informatyka Systemów Autonomicznych praca zaliczeniowa Percepcja, sterowanie, planowanie. Systemy wykorzystujące reprezentację BDI (Believe, Desire, Intention) prow: dr inż. Marek Piasecki Spis treści 1 Wstęp................................................................................................................................................ 2 1.1 Formalne modele BDI ............................................................................................................. 2 1.2 Model systemu i otoczenia....................................................................................................... 3 1.1 Cechy agenta.............................................................................................................................4 2 Agenckie architektury BDI...............................................................................................................5 2.1 Proces podejmowania decyzji...................................................................................................5 2.2 Architektura DMARS............................................................................................................... 5 2.3 Architektura JAM..................................................................................................................... 6 3 Zastosowanie.................................................................................................................................... 7 3.1 OASIS.......................................................................................................................................7 3.2 System obsługi awarii w RCS.................................................................................................. 8 4 Podsumowanie..................................................................................................................................8 5 Bibliografia.......................................................................................................................................9 1 Wstęp Zapotrzebowanie na systemy wspierające podejmowanie decyzji w złożonym dynamicznym środowisku stale rośnie. Dotychczasowe konwencjonalne rozwiązania stosowane np.: w kontroli lotów, wspieraniu procesów biznesowych, czy sieciach telekomunikacyjnych okazują się jednak zbyt skomplikowane, drogie w projektowaniu i utrzymaniu. Sytuacja uległa zmianie w momencie pojawienia się systemów wieloagentowych, które proponują całkiem odmienne podejście do problemu. Spośród kilku różnych możliwości wykorzystania systemu wieloagentowego, w tej pracy zostanie omówiona tylko jedna, a mianowicie reprezentacja BDI (Belief, Desire, Intention) odzwierciedlająca odpowiednio informacyjne, motywacyjne i decyzyjne cechy agentów, które determinują zachowanie się systemu i osiągane cele. 1.1 Formalne modele BDI Podstawy pod formalne modele BDI stworzył Bratman [1, 2] i choć w części późniejszych teoriach dotyczących BDI jego wersja bywa mocno krytykowana, na dobrą sprawę każda jest jej rozwinięciem, lub próbą wyeliminowania wad. „Bratman wyróżnił role, jakie odgrywają intencje w racjonalnym zachowaniu i sformułował szereg właściwości działania intencjonalnego. Przyjął on założenie ograniczonych zasobów agenta (ang. resource-bounded agent), zgodnie z którym agent nie może nieustannie analizować swoich przekonań i pragnień, lecz w którymś momencie musi obrać pewien cel i zaangażować się w jego osiągnięcie”1. Formalizacja intencji według Cohena i Levesque Cohen i Levesque [3] rozszerzyli teorię Bratmana o założenie racjonalnej równowagi (ang. rational balance), celem ograniczenia sytuacji, kiedy agent zbyt łatwo porzuca cel. „Autorzy zakładają, że aby agent mógł osiągnąć dany cel, musi konsekwentnie do niego dążyć. Dlatego definiują pojęcie trwałego celu (ang. persistent goal): agent x nie porzuci obranego celu p, zanim nie dojdzie do przekonania, że p zostało już osiągnięte lub że p nigdy nie zostanie osiągnięte”.2 Alternatywna propozycja Singha „Singh [8] zaproponował odmienny model oparty na logice czasu rozgałęzionego CTL* [5], rozszerzony o operatory modalne dotyczące przekonań, intencji i akcji wykonywanych 1 Modelowanie programów agenckich z wykorzystaniem architektury Belief Desire Intention, Damian DUDEK, Aleksander ZGRZYWA, http://www.zsi.pwr.wroc.pl/missi2000/referat3.htm 2 Ibid. przez agenta”.3 Teoria ta zakłada dużą ograniczoność agenta, jeśli chodzi o zdolność wnioskowania, percepcji i wykonywania akcji. Wprowadzone są więc dodatkowe funkcje: prawdopodobieństwa prawdziwości formuły, użyteczności celu i kosztu akcji wykonywanej przez agenta. Model Rao i Georgeffa „Rao i Georgeff [7] zaproponowali model odmienny od omówionych wyżej, częściowo zgodny z teorią Cohena i Levesque [3] i oparty na logice CTL* [5].” 4 Świat zamodelowany jest w postaci drzewa decyzyjnego, drzewa czasu (ang. time tree), w którym istnieje pojedyncza ścieżka odpowiadająca przeszłości, natomiast rozgałęzienia reprezentują opcje dostępne dla agenta w danym punkcie czasu. 1.2 Model systemu i otoczenia Systemy wieloagentowe są często wykorzystywane w dynamicznych środowiskach, o wielu zmiennych, gdzie niemożliwym jest przewidzenie wszystkich możliwch zjawisk i istotne jest, aby system działał nawet w sytuacji niepewności lub braku części danych. Model takiego środowiska można przedstawić na przykładzie systemu kontroli lotów, którego charakterystykę można przedstawić następująco: 1. w dowolnym momencie czasu istnieje nieskończona ilość możliwości zmiany środowiska systemu, 2. w dowolnym momencie isnieje wiele akcji, które system może zarządzić, 3. w dowolnym momencie może istnieć wiele celów, które system stara się osiągnąć, przy czym nie wszystkie mogą być równocześnie osiągalne, 4. akcje, które w najlepszy sposób realizują cele zależą od stanu środowiska, a nie od stanu systemu, 5. środowisko może być badane jedynie lokalnie, zbadanie stanu środowiska wymaga wielu pomiarów, 6. obliczenia oraz podejmowane akcje wykonywane są w skończonym czasie, przy czym istnieje możliwość zmiany stanu środowiska podczas wykonywania operacji przez system5. 3 Ibid. 4 Ibid. 5 BDI Agents: From Theory to Practice - Anand S. Rao, Michael P. George www.cs.umbc.edu/agents/introduction/rao.ps 1.1 Cechy agenta Mając zamodelowany system, można przystąpić do omówienia i uzasadnienia wydzielenia odpowiednich cech agenta. Przekonania (Belief) Biorąc pod uwagę cechę (4) ważne jest, aby system miał w miarę bieżącą informację o stanie otoczenia, jednak biorąc pod uwagę cechy (1) oraz (5) niezbędnym staje się komponent odpowiedzialny za przechowywanie informacji. Może to być grupa zmiennych, baza danych lub inna struktura, a komponent ten jest nazywany Przekonaniami agenta. Należy zauważyć, iż odróżnia się Wiedzę od Przekonań. Te drugie określają jedynie prawdopodobny stan otoczenia, gdyż w trakcie, lub niedługo po przeprowadzonych pomiarach środowisko systemu mogło ulec zmianie. Cele (Desire) Są to pożądane stany, lub funkcje jakie powinien pełnić system. Biorąc pod uwagę cechę (3) oraz (4) istotne jest, aby system miał informację na temat priorytetów oraz opłacalności osiągnięcia poszczególnych celów. Przy czym cele rozumiane w ten sposób różnią się od celów w ujęciu np.: literatury dotyczącej AI tym, iż może być ich wiele i mogą się wzajemnie wykluczać. Z biegiem czasu cele mogą być porzucane, jeśli zostaną osiągnięte, lub jeśli okaże się, iż są niemożliwe do osiągnięcia. Intencje (Intentions) Reprezentują one działania agentów, czyli wybrane na podstawie przekonań akcje mające za zadanie umożliwienie osiągnięcia celów. Biorąc pod uwagę cechę (6) należy zauważyć, że raz powzięte akcje mogą okazać się błędne wskutek zmian w otoczeniu, które zaszły w trakcie lub po podjęciu decyzji. Prowadzi to do wniosku, iż system powinien mieć możliwość ponownego podjęcia decyzji na podstawie nowych przekonań. W przypadku zmiennego otoczenia mogło by to jednak powodować zawieszanie się systemu, który przeprowadzał by proces podejmowania decyzji ciągle od nowa, wraz ze zmianą przekonań. Należy więc określić istotność zmian w otoczeniu, aby zmniejszyć ilość tych, które powodują konieczność przeprowadzenia procesu decyzyjnego od nowa. 2 Agenckie architektury BDI 2.1 Proces podejmowania decyzji Proces ten w dużej mierze zależy od przyjętego sposobu reprezentowania przekonań, intencji i celów agenta. Przykładem może być reprezentacja w postaci drzew decyzyjnych z przypisanymi wagami oznaczającymi opłacalność w przypadku struktury celów, lub prawdopodobieństwa zajścia określonych zjawisk w przypadku struktury przekonań. Ogólnie algorytm podejmowania decyzji można przedstawić następująco: BDI-interpreter initialize_state(); repeat options:= option=generator(event-queue); selected-options:=deliberate(options); update-intentions(selected-options); execute(); get-new-external-events(); drop-successful-attitudes(); drop-impossible-attitudes(); end repeat Na początku każdego cyklu generator opcji sprawdza kolejkę zdarzeń i zwraca listę opcji, następnie wybierana jest najlepsza, po czym odświeżana jest lista intencji. Kolejnym krokiem jest wykonanie akcji i uaktualnienie kolejki wydarzeń, o te które pojawiły się w trakcie wykonywania wcześniejszego procesu. Ostatnim etapem jest uaktualnienie struktur celów i intencji, przez usunięcie osiągniętych lub nierealnych celów, lub niemożliwych do wykonania intencji. 2.2 Architektura DMARS Architektura dMARS (ang. distributed Multi-Agent Reasoning System) [4] jest przykładem systemu wnioskowania proceduralnego (ang. Procedural Reasoning System - PRS). Agent dMARS składa się z biblioteki planów (ang. plan library), funkcji wyboru intencji, funkcji wyboru zdarzenia, funkcji wyboru planu i funkcji wyboru podstawienia. Plany to ciągi akcji, które agent może wykonywać w celu osiągnięcia swoich intencji. Zgrupowane są w bibliotece planów, reprezentującej wiedzę proceduralną (ang. procedural knowledge, know-how). Każdy plan składa się między innymi z warunku wywołania (ang. trigger, invocation condition), kontekstu (ang. context, pre-condition), określającego warunki, w których dany plan może być wykonany oraz ciała (ang. body), definiującego ciąg akcji – elementarnych lub złożonych. Agent dMARS monitoruje zarówno stan świata zewnętrznego, jak i swój stan wewnętrzny, i umieszcza wszystkie odbierane zdarzenia w kolejce zdarzeń (ang. event queue). Składnikami stanu wewnętrznego agenta są: przekonania, intencje oraz zdarzenia. Interpreter (patrz rys.1) zarządza wszystkimi procesami, które są wykonywane w agencie. Agent dMARS w ogóle nie wykonuje elementarnego planowania, lecz wybiera gotowe plany, które muszą być utworzone na etapie projektowania. Cele dzielą się na cele do osiągnięcia (ang. achieve) i cele do sprawdzenia (ang. query). Intencje są ciągami instancji planów (ang. plan instances). 2.3 Architektura JAM Hybrydowa architektura agencka JAM jest jedną z najnowszych architektur opartych na paradygmacie BDI. Architektura ta łączy w sobie elementy formalnych modeli BDI i specyfikacji systemów PRS. Agent JAM składa się z (patrz rys.2): modelu świata (ang. world model), biblioteki planów, interpretera, struktury intencji (ang. intention structure) oraz obserwatora (ang. observer). Model świata zawiera fakty w postaci relacja-argument (np. zmienne stanu, wyniki wnioskowania, dane sensoryczne, komunikaty), reprezentujące bieżący stan świata, znany przez agenta. Plany agenta zawierają proceduralną specyfikację sposobu osiągnięcia określonych celów, reagowania na określone zdarzenia lub wykazywania przez agenta pewnego zachowania. Pojedynczy plan definiowany jest m.in. przez cel, warunki początkowe, kontekst, ciało i użyteczność. Interpreter – główny mechanizm wnioskujący – jest odpowiedzialny za wybór i wykonywanie planów w oparciu o intencje, plany, cele i przekonania dotyczące bieżącego stanu świata. Sprzężona z interpreterem struktura intencji jest stosem gromadzącym cele (z przypisanymi planami i bez). Wszystkie plany, które pasują do danego celu i aktualnego stanu świata umieszczane są na liście stosowalnych planów (ang. Applicable Plan List – APL) i mają nadawane wartości użyteczności (ang. utility). Plan o największej użyteczności wybierany jest przez interpreter jako intencja na rzecz danego celu, i wykonywany. Obserwator jest składnikiem odpowiedzialnym za śledzenie i odbieranie asynchronicznych zdarzeń w otoczeniu (np. przesłanych komunikatów). Architektura JAM zawiera mechanizm wyboru planów w oparciu o funkcję użyteczności. Brakuje jej natomiast algorytmów dynamicznego tworzenia planów, mechanizmów uczenia się i formalnej specyfikacji architektury. Jednak dzięki dużej zgodności z teoriami formalnymi, silnej semantyce celów, bogatej reprezentacji proceduralnej, możliwościom metawnioskowania i mobilności agentów, JAM stanowi udaną realizację paradygmatu BDI. 3 Zastosowanie 3.1 OASIS Jest to wieloagentowy system kontroli lotów lotniska w Sydney. Każdemu lądującemu samolotowi przyporządkowywany jest agent odpowiedzialny za trajektorię. Dodatkowo istnieje parę agentów globalnych odpowiedzialnych za całościowe synchronizowanie działania lotniska, np: sequencer, coordinator, wind modeler. Celem sequencera jest zapewnienie bezpiecznego lądowania, przy zachowaniu optymalnej kolejności wszystkich samolotów. Do jego przekonań należą dane dotyczące samolotów (np.: prędkość, ilość paliwa) oraz dane dotyczące otoczenia, np.: prędkość wiatru. Na tej podstawie określane są plany dla poszczególnych samolotów, które przekazywane są agentom za nie odpowiedzialnym. Agent odpowiedzialny za samolot ma wpływ na trajektorię i czas lotu samolotu poprzez modyfikację prędkości oraz wysokości, które dostosowuje dla osiągnięcia określonego planu. Zbiór planów może być ograniczony np.: do takich, które ograniczają zużycie paliwa. 3.2 System obsługi awarii w RCS RCS (ang. Reaction Control System) to system, który za pomocą kilku silników odrzutowych zapewnia właściwe ustawienie wahadłowca NASA. Zastosowano w nim agencki system diagnostyczny działający w dynamicznym środowisku, w czasie rzeczywistym oparty o architekturę BDI. Do obsługi RCS zastosowano dwie instancje PRS. Pierwsza, zwana Interfejsem odpowiedzialna jest za większość odczytów z urządzeń pomiarowych oraz wyszukiwanie wadliwych komponentów. Druga, czyli RCSController, odpowiedzialna jest za obsługę wszystkich poważniejszych nieprawidłowości i awarii związanych z systemem RCS. W celu sprawdzenia poprawności działania systemu dodano symulator, który potrafi zamodelować różne sytuacje włączając w to niepoprawne działanie większości komponentów. Ogólny schemat systemu wygląda następująco: Rys.3 Konfiguracja systemu. 4 Podsumowanie Praktyczne zastosowania agenckich systemów BDI potwierdzają ich szczególną przydatność do modelowania elastycznych, zorientowanych na cel, autonomicznych zachowań agentów osadzonych w dynamicznym środowisku i działających w czasie rzeczywistym. W związku z tym, iż metodologia ta jest ciągle rozwijana, proponowane rozwiązania są często niespójne i świadczą o pewnych poszukiwaniach, niekoniecznie zweryfikowanych w praktyce, przez co trudno ocenić ich poprawność. Dalsze prace w tym nurcie powinny być poświęcone stworzeniu spójnej metodologii, która by w sposób formalny integrowała cały cykl tworzenia tego typu systemów. 5 Bibliografia [1] BRATMAN M., Intentions, Plans, and Practical Reason, Harvard University Press, Cambridge, MA, 1987. [2] BRATMAN M., ISRAEL D., POLLACK E., Plans and Resource-Bounded Practical Reasoning, Computational Intelligence, 4, 1988, pp. 349–355. [3] COHEN P. R., LEVESQUE H. J., Intention Is Choice with Commitment, Artificial Intelligence, 1990, Vol. 42, No. 3, pp. 213–261. [4] D'INVERNO M., KINNY D., LUCK M., WOOLDRIDGE M., A Formal Specification of dMARS, [w:] SINGH M., RAO A., WOOLDRIDGE M. (red.) Intelligent Agents IV SpringerVerlag Lecture Notes in AI, Vol. 1365, Feb 1998. [5] EMERSON E.A., Temporal and modal logic, [w:] VAN LEEUWEN J., (red.) Handbook of Theoretical Computer Science, North-Holland Pub. Co./MIT Press, 1990, Vol. B, pp. 995—1072. [6] RAO A., GEORGEFF M.,BDI Agents: From Theory to Practice, www.cs.umbc.edu/agents/introduction/rao.ps [7] RAO A., GEORGEFF M., Modeling Rational Agents within a BDI-Architecture, Proceedings of the Second International Conference on Artificial Intelligence, Sydney, Australia, Morgan Kaufman, 1991, pp. 473–484. [8] SINGH M. P., Intentions, Commitment and Rationality, Proceedings of the Thirteenth Annual Conference of the Cognitive Science Society, Chicago, Illinois, August 1991.