Michał Szczerbowski

Transkrypt

Michał Szczerbowski
Michał Szczerbowski
nr ind:133378
IV rok INF/INS
Wrocław, dn. 04.06.2007
Informatyka Systemów Autonomicznych
praca zaliczeniowa
Percepcja, sterowanie, planowanie.
Systemy wykorzystujące reprezentację BDI
(Believe, Desire, Intention)
prow: dr inż. Marek Piasecki
Spis treści
1 Wstęp................................................................................................................................................ 2
1.1 Formalne modele BDI ............................................................................................................. 2
1.2 Model systemu i otoczenia....................................................................................................... 3
1.1 Cechy agenta.............................................................................................................................4
2 Agenckie architektury BDI...............................................................................................................5
2.1 Proces podejmowania decyzji...................................................................................................5
2.2 Architektura DMARS............................................................................................................... 5
2.3 Architektura JAM..................................................................................................................... 6
3 Zastosowanie.................................................................................................................................... 7
3.1 OASIS.......................................................................................................................................7
3.2 System obsługi awarii w RCS.................................................................................................. 8
4 Podsumowanie..................................................................................................................................8
5 Bibliografia.......................................................................................................................................9
1 Wstęp
Zapotrzebowanie na systemy wspierające podejmowanie decyzji w złożonym
dynamicznym środowisku stale rośnie. Dotychczasowe konwencjonalne rozwiązania stosowane
np.: w kontroli lotów, wspieraniu procesów biznesowych, czy sieciach telekomunikacyjnych
okazują się jednak zbyt skomplikowane, drogie w projektowaniu i utrzymaniu. Sytuacja uległa
zmianie w momencie pojawienia się systemów wieloagentowych, które proponują całkiem
odmienne podejście do problemu.
Spośród kilku różnych możliwości wykorzystania systemu wieloagentowego, w tej
pracy zostanie omówiona tylko jedna, a mianowicie reprezentacja BDI (Belief, Desire, Intention)
odzwierciedlająca odpowiednio informacyjne, motywacyjne i decyzyjne cechy agentów, które
determinują zachowanie się systemu i osiągane cele.
1.1 Formalne modele BDI
Podstawy pod formalne modele BDI stworzył Bratman [1, 2] i choć w części
późniejszych teoriach dotyczących BDI jego wersja bywa mocno krytykowana, na dobrą sprawę
każda jest jej rozwinięciem, lub próbą wyeliminowania wad.
„Bratman wyróżnił role, jakie odgrywają intencje w racjonalnym zachowaniu
i sformułował szereg właściwości działania intencjonalnego. Przyjął on założenie ograniczonych
zasobów agenta (ang. resource-bounded agent), zgodnie z którym agent nie może nieustannie
analizować swoich przekonań i pragnień, lecz w którymś momencie musi obrać pewien cel
i zaangażować się w jego osiągnięcie”1.
Formalizacja intencji według Cohena i Levesque
Cohen i Levesque [3] rozszerzyli teorię Bratmana o założenie racjonalnej równowagi
(ang. rational balance), celem ograniczenia sytuacji, kiedy agent zbyt łatwo porzuca cel. „Autorzy
zakładają, że aby agent mógł osiągnąć dany cel, musi konsekwentnie do niego dążyć. Dlatego
definiują pojęcie trwałego celu (ang. persistent goal): agent x nie porzuci obranego celu p, zanim
nie dojdzie do przekonania, że p zostało już osiągnięte lub że p nigdy nie zostanie osiągnięte”.2
Alternatywna propozycja Singha
„Singh [8] zaproponował odmienny model oparty na logice czasu rozgałęzionego
CTL* [5], rozszerzony o operatory modalne dotyczące przekonań, intencji i akcji wykonywanych
1 Modelowanie programów agenckich z wykorzystaniem architektury Belief Desire Intention, Damian DUDEK,
Aleksander ZGRZYWA, http://www.zsi.pwr.wroc.pl/missi2000/referat3.htm
2 Ibid.
przez agenta”.3 Teoria ta zakłada dużą ograniczoność agenta, jeśli chodzi o zdolność
wnioskowania, percepcji i wykonywania akcji. Wprowadzone są więc dodatkowe funkcje:
prawdopodobieństwa prawdziwości formuły, użyteczności celu i kosztu akcji wykonywanej przez
agenta.
Model Rao i Georgeffa
„Rao i Georgeff [7] zaproponowali model odmienny od omówionych wyżej,
częściowo zgodny z teorią Cohena i Levesque [3] i oparty na logice CTL* [5].” 4 Świat
zamodelowany jest w postaci drzewa decyzyjnego, drzewa czasu (ang. time tree), w którym
istnieje pojedyncza ścieżka odpowiadająca przeszłości, natomiast rozgałęzienia reprezentują opcje
dostępne dla agenta w danym punkcie czasu.
1.2 Model systemu i otoczenia
Systemy wieloagentowe są często wykorzystywane w dynamicznych środowiskach,
o wielu zmiennych, gdzie niemożliwym jest przewidzenie wszystkich możliwch zjawisk i istotne
jest, aby system działał nawet w sytuacji niepewności lub braku części danych. Model takiego
środowiska można przedstawić na przykładzie systemu kontroli lotów, którego charakterystykę
można przedstawić następująco:
1. w dowolnym momencie czasu istnieje nieskończona ilość możliwości zmiany środowiska
systemu,
2. w dowolnym momencie isnieje wiele akcji, które system może zarządzić,
3. w dowolnym momencie może istnieć wiele celów, które system stara się osiągnąć, przy
czym nie wszystkie mogą być równocześnie osiągalne,
4. akcje, które w najlepszy sposób realizują cele zależą od stanu środowiska, a nie od stanu
systemu,
5. środowisko może być badane jedynie lokalnie, zbadanie stanu środowiska wymaga wielu
pomiarów,
6. obliczenia oraz podejmowane akcje wykonywane są w skończonym czasie, przy czym
istnieje możliwość zmiany stanu środowiska podczas wykonywania operacji przez system5.
3 Ibid.
4 Ibid.
5 BDI Agents: From Theory to Practice - Anand S. Rao, Michael P. George
www.cs.umbc.edu/agents/introduction/rao.ps
1.1 Cechy agenta
Mając zamodelowany system, można przystąpić do omówienia i uzasadnienia
wydzielenia odpowiednich cech agenta.
Przekonania (Belief)
Biorąc pod uwagę cechę (4) ważne jest, aby system miał w miarę bieżącą informację
o stanie otoczenia, jednak biorąc pod uwagę cechy (1) oraz (5) niezbędnym staje się komponent
odpowiedzialny za przechowywanie informacji. Może to być grupa zmiennych, baza danych lub
inna struktura, a komponent ten jest nazywany Przekonaniami agenta.
Należy zauważyć, iż odróżnia się Wiedzę od Przekonań. Te drugie określają jedynie
prawdopodobny stan otoczenia, gdyż w trakcie, lub niedługo po przeprowadzonych pomiarach
środowisko systemu mogło ulec zmianie.
Cele (Desire)
Są to pożądane stany, lub funkcje jakie powinien pełnić system. Biorąc pod uwagę
cechę (3) oraz (4) istotne jest, aby system miał informację na temat priorytetów oraz opłacalności
osiągnięcia poszczególnych celów. Przy czym cele rozumiane w ten sposób różnią się od celów
w ujęciu np.: literatury dotyczącej AI tym, iż może być ich wiele i mogą się wzajemnie wykluczać.
Z biegiem czasu cele mogą być porzucane, jeśli zostaną osiągnięte, lub jeśli okaże się,
iż są niemożliwe do osiągnięcia.
Intencje (Intentions)
Reprezentują one działania agentów, czyli wybrane na podstawie przekonań akcje
mające za zadanie umożliwienie osiągnięcia celów.
Biorąc pod uwagę cechę (6) należy zauważyć, że raz powzięte akcje mogą okazać się
błędne wskutek zmian w otoczeniu, które zaszły w trakcie lub po podjęciu decyzji. Prowadzi to do
wniosku, iż system powinien mieć możliwość ponownego podjęcia decyzji na podstawie nowych
przekonań. W przypadku zmiennego otoczenia mogło by to jednak powodować zawieszanie się
systemu, który przeprowadzał by proces podejmowania decyzji ciągle od nowa, wraz ze zmianą
przekonań. Należy więc określić istotność zmian w otoczeniu, aby zmniejszyć ilość tych, które
powodują konieczność przeprowadzenia procesu decyzyjnego od nowa.
2 Agenckie architektury BDI
2.1 Proces podejmowania decyzji
Proces ten w dużej mierze zależy od przyjętego sposobu reprezentowania przekonań,
intencji i celów agenta. Przykładem może być reprezentacja w postaci drzew decyzyjnych
z przypisanymi wagami oznaczającymi opłacalność w przypadku struktury celów, lub
prawdopodobieństwa zajścia określonych zjawisk w przypadku struktury przekonań.
Ogólnie algorytm podejmowania decyzji można przedstawić następująco:
BDI-interpreter
initialize_state();
repeat
options:= option=generator(event-queue);
selected-options:=deliberate(options);
update-intentions(selected-options);
execute();
get-new-external-events();
drop-successful-attitudes();
drop-impossible-attitudes();
end repeat
Na początku każdego cyklu generator opcji sprawdza kolejkę zdarzeń i zwraca listę
opcji, następnie wybierana jest najlepsza, po czym odświeżana jest lista intencji. Kolejnym
krokiem jest wykonanie akcji i uaktualnienie kolejki wydarzeń, o te które pojawiły się w trakcie
wykonywania wcześniejszego procesu. Ostatnim etapem jest uaktualnienie struktur celów
i intencji, przez usunięcie osiągniętych lub nierealnych celów, lub niemożliwych do wykonania
intencji.
2.2 Architektura DMARS
Architektura dMARS (ang. distributed Multi-Agent Reasoning System) [4] jest
przykładem systemu wnioskowania proceduralnego (ang. Procedural Reasoning System - PRS).
Agent dMARS składa się z biblioteki planów (ang. plan library), funkcji wyboru intencji, funkcji
wyboru zdarzenia, funkcji wyboru planu i funkcji wyboru podstawienia. Plany to ciągi akcji, które
agent może wykonywać w celu osiągnięcia swoich intencji. Zgrupowane są w bibliotece planów,
reprezentującej wiedzę proceduralną (ang. procedural knowledge, know-how). Każdy plan składa
się między innymi z warunku wywołania (ang. trigger, invocation condition), kontekstu (ang.
context, pre-condition), określającego warunki, w których dany plan może być wykonany oraz
ciała (ang. body), definiującego ciąg akcji – elementarnych lub złożonych.
Agent dMARS monitoruje zarówno stan świata zewnętrznego, jak i swój stan
wewnętrzny, i umieszcza wszystkie odbierane zdarzenia w kolejce zdarzeń (ang. event queue).
Składnikami stanu wewnętrznego agenta są: przekonania, intencje oraz zdarzenia. Interpreter
(patrz rys.1) zarządza wszystkimi procesami, które są wykonywane w agencie.
Agent dMARS w ogóle nie wykonuje elementarnego planowania, lecz wybiera gotowe
plany, które muszą być utworzone na etapie projektowania. Cele dzielą się na cele do osiągnięcia
(ang. achieve) i cele do sprawdzenia (ang. query). Intencje są ciągami instancji planów (ang. plan
instances).
2.3 Architektura JAM
Hybrydowa architektura agencka JAM jest jedną z najnowszych architektur opartych
na paradygmacie BDI. Architektura ta łączy w sobie elementy formalnych modeli BDI
i specyfikacji systemów PRS.
Agent JAM składa się z (patrz rys.2): modelu świata (ang. world model), biblioteki
planów, interpretera, struktury intencji (ang. intention structure) oraz obserwatora (ang. observer).
Model świata zawiera fakty w postaci relacja-argument (np. zmienne stanu, wyniki wnioskowania,
dane sensoryczne, komunikaty), reprezentujące bieżący stan świata, znany przez agenta. Plany
agenta zawierają proceduralną specyfikację sposobu osiągnięcia określonych celów, reagowania
na określone zdarzenia lub wykazywania przez agenta pewnego zachowania. Pojedynczy plan
definiowany jest m.in. przez cel, warunki początkowe, kontekst, ciało i użyteczność. Interpreter –
główny mechanizm wnioskujący – jest odpowiedzialny za wybór i wykonywanie planów
w oparciu o intencje, plany, cele i przekonania dotyczące bieżącego stanu świata. Sprzężona
z interpreterem struktura intencji jest stosem gromadzącym cele (z przypisanymi planami i bez).
Wszystkie plany, które pasują do danego celu i aktualnego stanu świata umieszczane są na liście
stosowalnych planów (ang. Applicable Plan List – APL) i mają nadawane wartości użyteczności
(ang. utility). Plan o największej użyteczności wybierany jest przez interpreter jako intencja na
rzecz danego celu, i wykonywany. Obserwator jest składnikiem odpowiedzialnym za śledzenie
i odbieranie asynchronicznych zdarzeń w otoczeniu (np. przesłanych komunikatów).
Architektura JAM zawiera mechanizm wyboru planów w oparciu o funkcję
użyteczności. Brakuje jej natomiast algorytmów dynamicznego tworzenia planów, mechanizmów
uczenia się i formalnej specyfikacji architektury. Jednak dzięki dużej zgodności z teoriami
formalnymi, silnej semantyce celów, bogatej reprezentacji proceduralnej, możliwościom metawnioskowania i mobilności agentów, JAM stanowi udaną realizację paradygmatu BDI.
3 Zastosowanie
3.1 OASIS
Jest to wieloagentowy system kontroli lotów lotniska w Sydney. Każdemu lądującemu
samolotowi przyporządkowywany jest agent odpowiedzialny za trajektorię. Dodatkowo istnieje
parę agentów globalnych odpowiedzialnych za całościowe synchronizowanie działania lotniska,
np: sequencer, coordinator, wind modeler.
Celem sequencera
jest zapewnienie bezpiecznego lądowania, przy zachowaniu
optymalnej kolejności wszystkich samolotów. Do jego przekonań należą dane dotyczące
samolotów (np.: prędkość, ilość paliwa) oraz dane dotyczące otoczenia, np.: prędkość wiatru.
Na tej podstawie określane są plany dla poszczególnych samolotów, które przekazywane są
agentom za nie odpowiedzialnym.
Agent odpowiedzialny za samolot ma wpływ na trajektorię i czas lotu samolotu
poprzez modyfikację prędkości oraz wysokości, które dostosowuje dla osiągnięcia określonego
planu. Zbiór planów może być ograniczony np.: do takich, które ograniczają zużycie paliwa.
3.2 System obsługi awarii w RCS
RCS (ang. Reaction Control System) to system, który za pomocą kilku silników
odrzutowych zapewnia właściwe ustawienie wahadłowca NASA. Zastosowano w nim agencki
system diagnostyczny działający w dynamicznym środowisku, w czasie rzeczywistym oparty
o architekturę BDI.
Do obsługi RCS zastosowano dwie instancje PRS. Pierwsza, zwana Interfejsem
odpowiedzialna jest za większość odczytów z urządzeń pomiarowych oraz wyszukiwanie
wadliwych komponentów. Druga, czyli RCSController, odpowiedzialna jest za obsługę
wszystkich poważniejszych nieprawidłowości i awarii związanych z systemem RCS.
W celu sprawdzenia poprawności działania systemu dodano symulator, który potrafi
zamodelować różne sytuacje włączając w to niepoprawne działanie większości komponentów.
Ogólny schemat systemu wygląda następująco:
Rys.3 Konfiguracja systemu.
4 Podsumowanie
Praktyczne zastosowania agenckich systemów BDI potwierdzają ich szczególną
przydatność do modelowania elastycznych, zorientowanych na cel, autonomicznych zachowań
agentów osadzonych w dynamicznym środowisku i działających w czasie rzeczywistym.
W związku z tym, iż metodologia ta jest ciągle rozwijana, proponowane rozwiązania są często
niespójne i świadczą o pewnych poszukiwaniach, niekoniecznie zweryfikowanych w praktyce,
przez co trudno ocenić ich poprawność. Dalsze prace w tym nurcie powinny być poświęcone
stworzeniu spójnej metodologii, która by w sposób formalny integrowała cały cykl tworzenia tego
typu systemów.
5 Bibliografia
[1] BRATMAN M., Intentions, Plans, and Practical Reason, Harvard University Press, Cambridge,
MA, 1987.
[2] BRATMAN M., ISRAEL D., POLLACK E., Plans and Resource-Bounded Practical
Reasoning, Computational Intelligence, 4, 1988, pp. 349–355.
[3] COHEN P. R., LEVESQUE H. J., Intention Is Choice with Commitment, Artificial
Intelligence, 1990, Vol. 42, No. 3, pp. 213–261.
[4] D'INVERNO M., KINNY D., LUCK M., WOOLDRIDGE M., A Formal Specification of
dMARS, [w:] SINGH M., RAO A., WOOLDRIDGE M. (red.) Intelligent Agents IV SpringerVerlag Lecture Notes in AI, Vol. 1365, Feb 1998.
[5] EMERSON E.A., Temporal and modal logic, [w:] VAN LEEUWEN J., (red.) Handbook of
Theoretical Computer Science, North-Holland Pub. Co./MIT Press, 1990, Vol. B, pp. 995—1072.
[6] RAO A., GEORGEFF M.,BDI Agents: From Theory to Practice,
www.cs.umbc.edu/agents/introduction/rao.ps
[7] RAO A., GEORGEFF M., Modeling Rational Agents within a BDI-Architecture, Proceedings
of the Second International Conference on Artificial Intelligence, Sydney, Australia, Morgan
Kaufman, 1991, pp. 473–484.
[8] SINGH M. P., Intentions, Commitment and Rationality, Proceedings of the Thirteenth Annual
Conference of the Cognitive Science Society, Chicago, Illinois, August 1991.

Podobne dokumenty