Rozdział 1 Gry niekooperacyjne w postaci strategicznej

Transkrypt

Rozdział 1 Gry niekooperacyjne w postaci strategicznej
Rozdział 1
Gry niekooperacyjne w postaci
strategicznej
Zacznijmy od odpowiedzenia sobie na pytanie – czym będziemy się zajmować na tym
kursie. Otóż teoria gier zajmuje się wszystkimi sytuacjami, w których istnieje kilka podmiotów, podejmujących decyzje, które wpływają na interesy nie tylko ich samych, ale
także pozostałych. W związku z tym nie mogą podejmować tych decyzji tak, jakby sytuacja wokół była już znana (dopasowując się tylko do niej) – muszą zastanowić się,
co zrobią w tej sytuacji inni (i czy nasza decyzja nie zmieni decyzji tych „innych”) –
w związku z tym analiza musi być bardziej złożona. Żeby dojść do tego, w jaki sposób
takie sytuacje opisywać w sposób ścisły, spróbujmy zobaczyć na prostym przykładzie,
co do takiego opisu będzie potrzebne.
Przykład: Rozważmy sobie taką sytuację: mamy plażę oraz dwóch sprzedawców lodów
(piwa, innych napojów chłodzących), którzy zastanawiają się, gdzie wzdłuż plaży ulokować swoje sklepiki. Każdy z nich sprzedaje produkty podobnej jakości, więc mogą
zakładać, że plażowicze będą zawsze kupować w tej z budek, do której będą mieli bliżej.
Dodatkowo wiedzą, że zainteresowanie ich asortymentem jest odwrotnie proporcjonalne
do odległości od najbliższej budki. No i oczywiście każdy z nich stara się zarobić jak
najwięcej.
W naszym przykładzie założymy sobie, że plaża podzielona jest na cztery odcinki
równej długości i sklepikarze podejmują jedynie decyzję, na którym z tych odcinku postawić swój interes. W związku z tym każdy z nich wybiera jedną z 4 lokalizacji sklepiku.
Poza tym, żeby uściślić naszą sytuację, załóżmy, że popyt na lody zależy od odległości d
(przy założeniu, że długość każdego z odcinków plaży jest równa 1) od najbliższego sklepiku w ten sposób (1 jest maksymalnym popytem): 1 − d4 . Dodatkowo niech maksymalny
zysk z jednego odcinka plaży niech będzie równy 1. Możemy przy takich założeniach zapisać sobie, jakich zysków mogą się spodziewać ze sprzedaży nasi gracze.
1
2
3
4
1 5 5
,
4 4
9
,1
4
17 11
,
8 8
7 7
,
4 4
2 1, 49
3
,
2
7
,
4
11
,
8
3
2
7
4 17
8
3 11 17
,
8 8
7 7
,
4 4
3 3
,
2 2
9
,1
4
4 7 7
,
4 4 17 11
,
8 8
9
,1
4 5 5
,
4 4
W powyższej tabelce liczby z lewej strony oznaczają odcinek plaży, na którym zdecydował się postawić swój sklep 1. z graczy, zaś te na górze – odcinek, na którym postawił
1
swój sklep 2. z graczy. Liczby w nawiasach to zysk odpowiednio pierwszego i drugiego
gracza.
Ten przykład w zasadzie już nam pokazuje, w jaki sposób możemy opisać taką sytuację konfliktową – potrzebne nam są trzy obiekty: zbiór możliwych wyborów pierwszego
gracza (tu {1, 2, 3, 4}), zbiór wyborów drugiego gracza (w naszej grze taki sam) oraz
tabelka (macierz) wypłat graczy. W ten sposób dostajemy obiekt, który w literaturze
teoriogrowej nazywa się grą dwumacierzową (dwu-, bo tak naprawdę mamy dwie macierze – wypłat pierwszego i drugiego gracza).
Gry dwumacierzowe
Grą dwumacierzową nazywamy czwórkę:
• X = {1, 2, . . . , m} – zbiór strategii gracza 1.,
• Y = {1, 2, . . . , n} – zbiór strategii gracza 2,
• A = [aij ]m×n – macierz wypłat gracza 1.,
• B = [bij ]m×n – macierz wypłat gracza 2.
(Oczywiście, wypłaty graczy mogą być czysto subiektywne, i mówią o tym, co dany gracz
myśli o danej sytuacji, a nie muszą oznaczać jakichś konkretnych wypłat, które jeden z
graczy wypłaca drugiemu, lub ktoś trzeci (Pan Bóg) wypłaca graczom).
Teraz powróćmy do naszego przykładu i zastanówmy się, co moglibyśmy uznać za
rozwiązanie dla takiej gry (oczywiście rozwiązaniem musi być para strategii 1. i 2. gracza). Czy może nim być na przykład układ strategii (1, 1)? Nie - bo jeśli obaj gracze
ulokują swoje sklepy ne pierwszym odcinku, to któryś z nich (np. pierwszy) stwierdzi,
że bardziej opłaca mu się przenieść swój sklep na 3. odcinek (i w ten sposób powiększyć
). Czy w takim razie ten nowy układ strategii ((3, 1)) będzie
swoją wypłatę z 45 do 17
8
rozwiązaniem? Znowu nie, bo teraz 2. z graczy przeniesie swój interes na 2. odcinek, zyskując 83 . Tym razem jednak dochodzimy do takiej pary strategii, że żaden z graczy nie
będzie próbował przenosić swojej budki, bo każdy z nich na tym straci. A więc rozwiązaniem jest (3, 2), i w dodatku potrafimy powiedzieć, dlaczego właśnie to jest rozwiązanie
(bo żaden z graczy nie będzie próbował go zmienić).
Formalnie to, co teraz opisaliśmy, można zapisać następująco:
Definicja: Rozwiązaniem dla gry dwumacierzowej zdefiniowanej przez macierze A i B
wymiaru m × n jest tzw. równowaga w sensie Nasha, tzn. taka para strategii (i∗ , j ∗ ), że
ai∗ j ∗ ­ aij ∗ dla każdego i ¬ m oraz bi∗ j ∗ ­ bi∗ j dla każdego j ¬ n.
(Nietrudno zauważyć, że w „naszej” grze są dwie równowagi: (3, 2) i (2, 3)).
Niestety, jak się okazuje, tak zdefiniowane rozwiązanie ma pewne wady, które obrazują trzy najbardziej znane przykłady gier dwumacierzowych.
Przykład 1 (Papier, nożyce, kamień): Tę grę wszyscy znają – do wyboru są trzy startegie: papier, nożyce i kamień – kamień bije nożyce, nożyce biją papier, a papier bije
kamień. Jeśli za wypłaty wygrywającego przyjmiemy sobie 1, a za wypłaty przegrywającego −1 (jeśli mamy remis, wypłaty obu będą równe 0), to macierzami wypłat w tej
grze będą:




0 −1
1
0
1 −1


0 −1 
0
1 
A= 1
 B =  −1
.
−1
1
0
1 −1
0
2
Jak nietrudno zauważyć, ta gra równowagi nie ma, czyli istnieją gry (i jest ich nawet
bardzo dużo), które nie mają rozwiązania.
Przykład 2: Mamy parę, która chce spędzić razem wieczór, tylko zastanawiają się –
jak. Kanoniczna wersja tej historyjki jest taka , że Pani chce iść na balet, Pan na boks.
Niestety nie umówili się, gdzie mają iść, a właśnie padła sieć i nie są w stanie się w
żaden sposób skontaktować. Jeśli nie skoordynują miejsc, w które się wybiorą – nici ze
wspólnego wieczoru i obie strony będą na tym stratne. Jeśli spotkają się na balecie, Pani
będzie wniebowzięta, Pan jakby mniej, ale na pewno skorzysta z profitów, jakie niesie
za sobą wspólnie spędzony wieczór. W drugą stronę podobnie. Macierze wypłat graczy
w tej grze będą wyglądały tak:
"
A (Pani) =
4 0
0 1
#
"
B (Pan) =
1 0
0 4
#
.
Ta gra ma dwie równowagi: (boks,boks) i (balet, balet)
Co z tego przykładu wynika?
1. Może istnieć wiele różnych równowag Nasha ze znacząco różnymi wypłatami. Może
się zdarzyć, że jedna równowaga jest bardziej opłacalna dla jednego z graczy, a inna
dla drugiego.
2. Strategii w różnych równowagach nie można między sobą wymieniać. Bez uzgodnienia, która równowaga będzie grana, nie da się racjonalnie wybrać strategii do
gry.
3. Wiedząc, jaki jest zbiór równowag Nasha w danej grze, nie potrafimy powiedzieć,
jak będą zachowywać się gracze (nawet przy założeniu, że grają racjonalnie.)
Przykład 3 (dylemat więźnia – najbardziej znany przykład w teorii gier): Historyjka
jest taka: dwóch więźniów podejrzanych o jakieś przestępstwo, jest przesłuchiwanych w
oddzielnych pokojach. Są winni, ale każdy z nich zastanawia się, czy się przyznać, czy
nie. Jeśli się przyzna (zrzucając przy okazji większość winy na drugiego), a drugi więzień
będzie szedł w zaparte, pierwszy może liczyć na to, że dostanie wyrok w zawiasach, ale
kosztem wspólnika. Jeśli żaden się nie przyzna, to głównej winy nikt im nie udowodni, ale
przymkną ich na rok za to, co są w stanie im udowodnić bez współpracy żadnego z nich.
Jeśli przyznają się obaj, sąd nie uwerzy w ich skruchę, ale odpowiedzialnością obarczy
w tym samym stopniu, i dostaną wyrok nieco niższy niż ten, który się nie przyzna, a
cała wina zostanie jemu przypisana. Macierze wypłat w tej grze wyglądają tak:
"
A=
−5 0
−10 −1
#
"
B=
−5 −10
0
−1
#
.
Ta gra posiada dokładnie jedną równowagę – obaj się przyznają. Problem w tym, że
gdyby obaj odstąpili od równowagi, zyskaliby na tym.
A wniosek z tego przykładu taki, że równowaga nie musi dawać optymalnych wypłat
w grze. Jeśli osiągnięcie takich wypłat wiąże się z kooperacją, nie będzie to równowaga.
Czy te wymienione wady oznaczają, że równowaga Nasha jest złym rozwiązaniem?
Nie – w przypadku wad widocznych w dwóch ostatnich przykładach, to nie są wady
rozwiązania – ludzie naprawdę w tego typu sytuacjach postępują w taki (zdawałoby się,
3
nieoptymalny) sposób jak w ostatnim przykładzie, też mają problemy z wyborem sposobu postępowania, jeśli nie ma między nimi komunikacji itp. Pozostaje ostatni problem
– możliwość nieistnienia rozwiązania Nasha. Ten problem da się jednak usunąć. Pomysł
tego, jak to zrobić pochodzi od twórcy teorii gier – Johna von Neumanna. Wymyślił
on mianowicie, że gracze, zamiast wskazywać konkretną kolumnę albo konkretny wiersz
macierzy wypłat, mogą wybierać rozkład prawdopodobieństwa, zgodnie z którym ma
być wylosowana ich strategia. W ten sposób zbiór strategii graczy zostanie znacząco
powiększony, i dzięki temu będzie łatwiej o równowagę w takiej grze. Formalnie takie
uogólnienie zapisujemy następująco:
Rozszerzenie mieszane gry dwumacierzowej
Niech, jak poprzednio, X = {1, . . . , m}, Y = {1, . . . , n} będą odpowiednio zbiorami
wierszy i kolumn macierzy wypłat graczy A i B. Za zbiory strategii graczy przyjmujemy
P (X) i P (Y ) (gdzie P (A) oznacza zbiór rozkładów prawdopodobieństwa na zbiorze A).
Elementy µ ∈ P (X) oraz σ ∈ P (Y ) będziemy nazywać strategiami mieszanymi graczy
(w odróżnieniu od elementów X i Y , które nazywamy strategiami czystymi), a wypłaty
graczy definiujemy następująco:
u1 (µ, σ) =
XX
i
aij µi σj ,
u2 µ, σ) =
j
XX
i
bij µi σj ,
j
gdzie µi to prawdopodobieństwo wylosowania i z rozkładu µ, a σj – prawdopodobieństwo
wylosowania j z σ (czyli wypłaty są wartościami oczekiwanymi wypłat w oryginalnej
grze dwumacierzowej, jeśli gracze losują swoje strategie zgodnie z rozkładami µ i σ).
Przypomnijmy sobie teraz przykład gry, która nie miała równowagi w strategiach
czystych. Tym przykładem były „Papier, nożyce i kamień”, z macierzami wypłat




0
1 −1

0
1 
B =  −1
.
1 −1
0
0 −1
1

0 −1 
A= 1

−1
1
0
Nietrudno zauważyć, że tutaj równowagą w strategiach mieszanych będzie µ∗ =
1 1 1
, ,
3 3 3
i σ ∗ = 31 , 31 , 13 . (Jest tak, ponieważ u1 (µ∗ , σ ∗ ) = 0 i jednocześnie dla dowolnej innej
strategii 1. gracza, µ = (µ1 , µ2 , µ3 ), również u1 (µ, σ ∗ ) = 0, więc gracz 1. nie będzie
miał powodu do zmiany swojej strategii; podobnie (a nawet dokładnie tak samo) jest w
przypadku 2. gracza).
Oczywiście zastosowanie strategii mieszanych ma swoje wady – przede wszystkim
zakłada nie wprost, że gra będzie rozgrywana wielokrotnie (bo inaczej trudno byłoby w
praktyce używać rozkładów prawdopodobieństwa jako strategii – przy jednej rozgrywce
ta strategia byłaby zawsze jakąś konkretną strategią czystą). Jednak zysk, jaki pojawia
się w zamian, jest potężny – nie tylko „Papier, nożyce i kamień”, ale każda gra dwumacierzowa będzie miała w strategiach mieszanych równowagę. Mniej więcej to udowodnił
Nash.
Twierdzenie 1.1 Każda gra dwumacierzowa posiada równowagę w sensie Nasha.
Nie będziemy dowodzić tego twierdzenia. Udowodnimy twierdzenie trochę ogólniejsze,
które za chwilkę podam (czyli to, co naprawdę udowodnił Nash; potem pokażemy, dlaczego twierdzenie dla gier dwumacierzowych z tej ogólniejszej wersji wynika). Żeby je
podać, zdefiniuję ogólnie, co nazywamy grą niekooperacyjną.
4
Definicja 1.1 n-osobową grą niekooperacyjną nazwiemy Γ = (X1 , . . . , Xn , u1 , . . . , un ),
gdzie Xi – (niepuste) zbiory strategii poszczególnych graczy, ui : X1 × · · · × Xn → R
– ograniczone funkcje wypłaty poszczególnych graczy. Gracze wybierają niezależnie od
siebie odpowiednio x1 ∈ X1 , x2 ∈ X2 , . . . , xn ∈ Xn , w wyniku czego gracz k-ty otrzymuje
uk (x1 , . . . , xn ).
W powyższej definicji nie precyzujemy, czy Xi są zbiorami strategii czystych, czy mieszanych. Pokażemy, że przy pewnych założeniach na te zbiory, oraz na funkcje wypłaty
graczy, gra będzie posiadała równowagę w strategiach należących właśnie do tych zbiorów.
Definicja 1.2 Równowagą w sensie Nasha w grze Γ zdefiniowanej powyżej nazwiemy
układ strategii x∗ = (x∗1 , . . . , x∗n ) takich, że dla każdego gracza i oraz yi ∈ Xi mamy
ui (x∗ ) ­ ui ((x∗1 , . . . , x∗i−1 , yi , x∗i+1 , . . . , x∗n )).
Oznacza to, jak poprzednio, że pojedynczemu graczowi nie opłaca się odstąpić od równowagi, gdy inni pozostają przy swoich strategiach x∗i .
Prawdziwe będzie następujące twierdzenie:
Twierdzenie 1.2 (Nash, 1950) Załóżmy, że każdy ze zbiorów Xi jest zwartym wypukłym
podzbiorem Rk . Załóżmy ponadto, że dla każdego i funkcja ui jest ciągła na X1 ×· · ·×Xn
oraz jest wklęsła względem i-tej zmiennej, przy ustalonych pozostałych zmiennych. Wtedy
gra Γ, określona przez zbiory Xi i funkcje ui , posiada równowagę Nasha.
Uwaga 1.1 Dla tych, którzy nie wiedzą – podzbiór przestrzeni metrycznej nazywamy
zwartym, jeśli każdy ciąg elementów tego zbioru posiada podciąg zbieżny. W Rk zbiór
jest zwarty iff jest domknięty i ograniczony.
Zanim przejdziemy do dowodu tej uogólnionej wersji twierdzenia Nasha, sformułujemy twierdzenie, które będzie punktem wyjściowym dla tego dowodu.
Twierdzenie 1.3 (Twierdzenie Kakutaniego o punkcie stałym) Niech S będzie zwartym
wypukłym podzbiorem Rk i niech ψ będzie operatorem przyporządkowującym każdemu
s ∈ S zwarty, wypukły podzbiór S, o wykresie domkniętym, (tzn. jeśli xn ∈ S, xn → x0 ,
yn ∈ ψ(xn ), yn → y0 , to y0 ∈ ψ(x0 )). Istnieje wtedy takie x∗ , że x∗ ∈ ψ(x∗ ) (punkt stały
multifunkcji ψ).
Tak naprawde chętnie przeprowadziłbym dowód też tego twierdzenia, żeby wychodzić
od faktów przez Państwa znanych, ale to wymagałoby wprowadzenia ileś dodatkowej
teorii (sympleks, współrzędne barycentryczne, podział symplicjalny, twierdzenie Brouwera o punkcie stałym), w związku z tym twierdzenie Kakutaniego będę traktował
jako punkt wyjściowy, natomiast osobom zainteresowanym dowodem tego twierdzenia
polecam przeczytanie XX rozdziału „Wstępu do teorii mnogości i topologii” Kuratowskiego (Sympleks i jego własności). Wtedy poniższy dowód powinien być zrozumiały.
Dowód tw Kakutaniego:1 Bez straty ogólności możemy założyć, że S jest sympleksem.
Niech {πµ } będzie ciągiem rozbić symplicjalnych sympleksu S, takich że średnica każdego
sympleksu z πµ nie przekracza δµ i δµ → 0.
1
Tego nie było na wykładzie
5
Zdefiniujmy ψ µ : S → S w następujący sposób: jeśli x jest wierzchołkiem sympleksu z πµ ,
to za ψ µ (x) przyjmujemy dowolne s ∈ ψ(x), a następnie przedłużamy ψ µ liniowo na każdy
P
P
z sympleksów rozbicia, tzn. jeśli x = k+1
λj = 1, gdzie {x1 , . . . , xk+1 } —
j=1 λj xj , λi ­ 0,
Pk+1
µ
wierzchołki ustalonego sympleksu z πµ , to ψ (x) = j=1 λj ψ µ (xj ). Tak zdefiniowane ψ µ jest
ciągłe, a zatem na mocy twierdzenia Brouwera ma punkt stały, który możemy oznaczyć przez
xµ . Ponadto
xµ =
k+1
X
j=1
λµj xµj ,
k+1
X
λµj = 1, λµj ­ 0.
j=1
Ze zwartości S można założyć bez straty ogólności, że xµi , λµi , ψ µ (xµi ) są zbieżne przy µ → ∞;
xµi oraz xµ mają tę samą granicę x∗ ∈ S. Niech limµ λµj = λ∗j , a limµ ψ µ (xµj ) = ηj∗ .
P µ µ µ
P ∗ ∗
Mamy xµ = ψ µ (xµ ) =
λj ψ (xj ). Wtedy x∗ =
λj ηj , a z własności, które spełnia ψ
wynika, że ηj∗ ∈ ψ(x∗ ) dla każdego j. Stąd x∗ ∈ ψ(x∗ ), bo ψ(x∗ ) jest wypukły, a więc x∗ jest
szukanym punktem zbioru S. Dowód tw. Nasha: Idea tego dowodu polega na tym, żeby skonstruować odwzorowanie, które będzie miało punkt stały wtedy i tylko wtedy, gdy gra posiada równowagę
Nasha. Wtedy sprawdzimy, że to odwzorowanie spełnia założenia twierdzenia Kakutaniego, zatem ma punkt stały, a gra ma równowagę. Dowód twierdzenia przeprowadzimy
dla przypadku, gdy jest dwóch graczy. Ta zmiana upraszcza jedynie notację, natomiast
dowód w ogólnym przypadku nie jest ani trochę bardziej skomplikowany.
Niech:
B1 (y) = {a ∈ X1 : u1 (a, y) = max u1 (x, y)},
x∈X1
B2 (x) = {b ∈ X2 : u2 (x, b) = max u2 (x, y)}.
y∈X2
Zbiór B1 (y) interpretujemy jako zbiór najlepszych odpowiedzi 1. gracza na strategię y
drugiego. Podobną interpretację ma zbiór B2 (x). Jeśli teraz zdefiniujemy sobie multifunkcję
F (x, y) = B1 (y) × B2 (x),
to to będzie to odwzorowanie, którego szukamy, bo ewentualny punkt stały takiego
odwzorowania (x∗ , y ∗ ) ∈ F (x∗ , y ∗ ) będzie miał taką własność, że x∗ będzie najlepszą
odpowiedzią na strategię y ∗ i na odwrót, czyli to będzie równowaga Nasha.
Sprawdźmy zatem, czy spełnione są założenia twierdzenia Kakutaniego.
1. Multifunkcja F jest zdefiniowana na zbiorze U = X1 × X2 , który jest zwarty. To
można uzasadnić na wiele sposobów (wyciągając podciąg zbieżny z jednej współrzędnej, a potem z niego podciąg zbieżny po drugiej, lub mówiąc, że produkt
zbiorów domkniętych i ograniczonych też ma tę własność). Jest też wypukły jako
produkt zbiorów wypukłych.
2. Zbiory B1 (y) (B2 (x)) są zawsze niepuste, bo każda funkcja ciągła na zbiorze zwartym osiąga swoje supremum na tym zbiorze.
3. Funkcja u1 (·, y) jest wklęsła dla każdego y ∈ X2 , stąd jeśli dla ustalonego y osiąga
ona maksimum dla x1 oraz x2 , to musi osiągać je także dla kombinacji wypukłych
tych punktów, a to oznacza, że dla każdego y, zbiór B1 (y) jest wypukły. Podobnie
można uzasadnić wypukłość B2 (x). Ponieważ iloczyn kartezjański dwóch zbiorów
wypukłych też jest wypukły, to F (x, Y ) jest zbiorem wypukłym dla dowolnych x
i y.
6
4. Weźmy teraz dowolny ciąg {xi } elementów zbioru B1 (y) dla dowolnego ustalonego
y, zbieżny do pewnego x. Ponieważ funkcja u1 jest ciągła, to x też należy do B1 (y).
Zatem zbiór ten jest domknięty. Jako podzbiór X1 jest także ograniczony, a zatem
zwarty. Podobnie pokazujemy, że B2 (x) są zbiorami zwartymi. Oczywiście F (x, y),
jako iloczyn kartezjański zbiorów zwartych, jest dla dowolnych x i y także zbiorem
zwartym (patrz punkt 1.).
5. Domkniętość wykresu. Znowu (bez utraty ogólności) ograniczymy się do jednej
współrzędnej. Załóżmy nie wprost, że wykres B1 nie jest domknięty, czyli istnieje
ciąg {(xn , yn )} zbieżny do (x, y) taki, że xn ∈ B1 (yn ), ale x 6∈ B1 (y). Pierwsza z
tych równości oznacza, że
u1 (a, yn ) ¬ u1 (xn , yn ) ∀a ∈ X1 ,
ale ponieważ u1 jest ciągła, więc prawdziwe musi być także
u1 (a, y) ¬ u1 (x, y) ∀a ∈ X1 ,
co jest równoważne x ∈ B1 (y) – sprzeczność. Czyli wykres naszego odwzorowania
jest domknięty.
A zatem wszystkie założenia twierdzenia Kakutaniego są spełnione, więc gra Γ posiada
równowagę Nasha. Uwaga 1.2 Ktoś mógłby się zapytać, jaki sens ma udowadnianie twierdzenia, korzystając z innego twierdzenia, którego słuchacze nie znają. Otóż głównym celem przedstawienia tutaj tego dowodu jest pokazanie jego ogólnego schematu, bo właściwie wszystkie
twierdzenia o istnieniu równowagi Nasha udowadnia się według tego schematu. Innymi
słowy, żeby była szansa na to, że dla jakiegoś typu gier, przy jakichś założeniach, gra
będzie musiała posiadać równowagę, to przy podobnych założeniach, dla takich samych
przestrzeni, powinno być prawdziwe twierdzenie o punkcie stałym.
Wniosek 1.1 Twierdzenie Nasha dla gier dwumacierzowych wynika z powyższego twierdzenia w następujący sposób:
Niech X1 = P (W ), gdzie W = {1, . . . , m} – zbiór wierszy macierzy, a X2 = P (K),
gdzie K = {1, . . . , n} – zbiór kolumn. Dowolny rozkład prawdopodobieństwa µ =
P
(µ1 , . . . , µm ) ∈ P (W ) jest układem m liczb spełniających warunki i µi = 1, µi ­ 0
∀i. Zbiór takich µ jest wypukłym i zwartym podzbiorem Rm . Podobnie w przypadku
zbioru strategii mieszanych 2. gracza. Z kolei wypłata gracza 1. (podobnie z wypłatą 2.),
P P
gdy używane są strategie µ i σ, u1 (µ, σ) = i j Aij µi σj jest funkcją liniową (właściwie
afiniczną) względem µ i σ z osobna; taka funkcja jest też w szczególności ciągła i wklęsła
względem µ i σ z osobna.2 A zatem spełnione są założenia udowodnionego przez nas
uogólnionego twierdzenia Nasha, i gra posiada równowagę w strategiach z X1 i X2 , czyli
strategiach mieszanych w wyjściowej grze dwumacierzowej.
2
Na wykładzie usiłowałem pokazać, że jest wklęsła względem obu zmiennych naraz, co oczywiście
nie jest prawdą, dlatego nic z tego nie wyszło. Natomiast w twierdzeniu Nasha nie ma założenia o
wklęsłości funkcji wypłaty względem strategii obu graczy, tylko o wklęsłości wypłaty każdego gracza
względem jego własnej strategii, a względem dowolnej pojedynczej zmiennej ta wypłata jest wklęsła,
bo jest liniowa.
7