Kliknij tutaj - Wydawnictwa PTM - Polskie Towarzystwo Matematyczne

Transkrypt

Kliknij tutaj - Wydawnictwa PTM - Polskie Towarzystwo Matematyczne
158
Recenzje
Krzysztof Wójtowicz, O pojęciu dowodu w matematyce, Monografie Fundacji na rzecz Nauki Polskiej, Wydawnictwo
Naukowe Uniwersytetu Mikołaja Kopernika, Toruń 2012,
250 str.
Monografia ta poświęcona jest filozoficznej analizie statusu
i swoistości dowodów matematycznych oraz refleksji nad naturą i specyfiką argumentacji matematycznej. Autor, profesor Instytutu Filozofii
Uniwersytetu Warszawskiego, a zarazem matematyk po studiach na UW,
systematycznie prezentuje pewien krąg zagadnień wiążących się z trzema
motywami przewodnimi:
1. problem relacji między realnymi, komunikatywnymi dowodami
tworzonymi przez matematyków a dowodami wyidealizowanymi, sformalizowanymi, traktowanymi jako formalne ciągi symboli w ramach
paradygmatu maszyny Turinga, w tym problem swoistego napięcia
między treściowym a formalnym rozumieniem dowodów;
2. problem eksplanacyjnej roli dowodów i ich wpływu na rozumienie
twierdzenia, wyróżnienie dowodów, które tylko przekonują, i dowodów,
które wyjaśniają;
3. problem elementów empirycznych w dowodach matematycznych
(w szczególności dowodów z użyciem komputera) i matematycznego
statusu argumentacji, której źródłem nie jest wyłącznie rozum.
Autor nie zajmuje się tu problematyką ontologiczną1, która przeżywała burzliwy rozwój sto lat temu, gdy krystalizowały się trzy grupy
stanowisk (logicyzm, intuicjonizm, formalizm). Autor skupia się na
problematyce metodologicznej, choć oczywiście kwestia natury obiektów
matematyki jest stale obecna w tle prowadzonych rozważań.
W rozdziale pierwszym przedstawione są dwa podejścia do tego,
czym jest dowód matematyczny. Jedno z nich, zwane semantycznym
lub treściowym, oparte na intuicyjnym wglądzie w przedmiot dowodu,
na postrzeganiu prawomocności i oczywistości każdego kroku. Ważne
przy tym jest to, aby móc objąć całość jednym spojrzeniem. Oparte jest
to na przekonaniu, że język matematyczny pełni rolę nośnika pewnych
obiektywnych treści i tych treści dotyczy dowód. Modelowy tego opis
dał Kartezjusz.
Drugie podejście jest syntaktyczne, czyli formalistyczne, oparte na
manipulowaniu symbolami zgodnie z przyjętymi regułami. Przy tym uję1
Kwestie ontologiczne są przedmiotem innej książki [9] tego samego autora.
c 2013 Polskie Towarzystwo Matematyczne
Recenzje
159
ciu język matematyki stanowi formalne, czysto instrumentalne narzędzie
poznania; nie trzeba postulować, że reprezentuje on pewną pozajęzykową
rzeczywistość. Dowód to czysto syntaktyczny konstrukt – mechaniczne,
nieodwołujące się do intuicji operacje na symbolach2.
Prekursorem takiego sposobu myślenia był, zdaniem autora, George
Berkeley (1685–1753), zdecydowany nominalista i skrajny idealista, który
uważał, że uzasadnieniem dla zdań matematyki jest ich użyteczność, a nie
intuicyjna oczywistość, która bynajmniej nie gwarantuje ich prawomocności. Twierdził on, że język matematyki jest pozbawiony interpretacji,
nie opisuje wiecznych i niezmiennych prawd matematycznych. Berkeley
porównał matematykę do gry, w której terminy matematyczne pełnią
rolę żetonów. Jako przykład podawał użycie algebraicznego znaku określającego pierwiastek z liczby ujemnej, choć nie jest możliwe utworzenie
idei takiej wielkości. Stanowisko Berkeleya, które można określić jako
lingwistyczny instrumentalizm, jest bliskie neopozytywistycznej koncepcji matematyki jako swoistej składni języka nauki. W szczególności,
Rudolf Carnap (1891–1970) przypisywał twierdzeniom matematycznym
charakter prawd czysto konwencjonalnych, które przyjmujemy tylko ze
względu na wygodę i ekonomię myślenia.
W XIX wieku okazało się, że kryterium intuicyjności i oczywistości przestało wystarczać. Przekonano się, że intuicje, zwłaszcza geometryczne, mogą być zwodnicze3. W wyniku stopniowej ewolucji odchodzono od kartezjańskiego postulatu treściowej kontroli kolejnych
kroków rozumowania na rzecz postępowania zgodnego z pewnymi regułami, m.in. postulowano zwiększenie ścisłości dowodów przez ich
2
Za głównego rzecznika formalizmu słusznie uważa się Hilberta. Jednakże to
właśnie Hilbert w 1926 roku, powołując się na Kanta, wypowiedział swą znaną opinię
(również cytowaną w recenzowanej książce), że matematyka posiada treść pewną
i niezależną od logiki i że w związku z tym nigdy nie może zostać ugruntowana
w oparciu o samą tylko logikę, a warunkiem wstępnym wszelkich rozumowań są
pewne konkretne obiekty, jawiące się jako doświadczane bezpośrednio przed wszelkim
myśleniem (pełny tekst tej wypowiedzi znajduje się w książce [7] R. Murawskiego).
Warto tu dodać, że Richard Courant (uczeń i bliski współpracownik Hilberta) napisał,
że Hilbert był jednym z najbardziej konkretnych matematyków intuicyjnych (patrz
artykuł [2, str. 152]). Courant starał się zademonstrować ów hilbertowski dualizm
formalizmu i intuicji w znanej książce [3], napisanej wspólnie z Herbertem Robbinsem;
w przedmowie pisał: „by poza formalizmem matematycznym i przekształceniami
uchwycić istotną treść matematyki”.
3
Jednym z czołowych krytyków odwoływania się do geometrycznej intuicji był Hans
Hahn (znany matematykom z twierdzenia Hahna–Banacha), czołowy przedstawiciel
Koła Wiedeńskiego. Jego wywody wskazujące na błędne wnioski z intuicyjnych
przesłanek adresowane były raczej do filozofów niż do matematyków.
160
Recenzje
częściową algebraizację4. Autor opisuje argumentację Peacocka, Pascha, Grundlagen der Geometrie Hilberta, podejście Fregego i program
Hilberta.
Logicyzm i formalizm odebrały intuicji matematycznej rolę arbitra –
przejęła ją logika. Oba te nurty filozofii matematyki miały silnie normatywny charakter. Autor twierdzi, że ich tezy dotyczyły nie praktyki
matematycznej, lecz pewnej wyidealizowanej wizji dowodu matematycznego, idealnego wzorca ścisłości.
W I połowie XX wieku wyraźny był wzrost rygoryzmu w samej
matematyce. Powstała kategoria dowodów wymuszających zgodę co
do ich poprawności. Istotną zmianą było odejście od myślenia o teoriach aksjomatycznych w kategoriach zamierzonych interpretacji pojęć.
Szczególnie wyraźne było to w przypadku geometrii.
Formalizm można rozpatrywać w wersji skrajnej (formalna gra symboli pozbawionych znaczenia), lecz także w szerszej, słabszej wersji.
Nadal chodzi tu o odejście od „treściowego”, intuicyjnego rozumienia
dowodów, połączone z refleksją dotyczącą reguł, na których ma opierać
się rozumowanie.
Tradycja filozofii matematyki pierwszej połowy XX wieku, zdominowana przez ambicję racjonalnej rekonstrukcji procesu dowodzenia
i wykazania, że jest ono bezpieczne i nie wiedzie do sprzeczności, wyraźnie osłabła pod wpływem coraz silniejszych, antyfundacjonalistycznych
tendencji II połowy XX wieku. Zamiast pełnić rolę normatywną, filozofia
przesunęła się w kierunku deskryptywnym, w kierunku opisu faktycznych
dowodów mających przekonać kompetentnych matematyków do uznania
dowodzonych twierdzeń. Zaczęto podkreślać konieczność analizy procesu
tworzenia matematyki, jej odkrywania, a nie tylko uzasadniania.
Rozdział drugi poświęcony jest antyfundacjonalizmowi Imre Lakatosa
(1922–1974), który uważał formalizm za ostatnie ogniwo w łańcuchu dogmatystycznych koncepcji filozofii matematyki, wywodzących się z kultu
podejścia Euklidesa, z paradygmatu prawdziwej i pewnej wiedzy matematycznej, autorytatywnej, niezawodnej i niepodważalnej5. Interesował
się on teoriami matematycznymi w wersjach ich pierwszych twórców,
4
Paradoksalnie, to właśnie metoda Kartezjusza wprowadzenia układu współrzędnych do geometrii przyczyniła się do odchodzenia od kartezjańskiego, treściowego
podejścia do dowodzenia.
5
Bardzo dobry przegląd koncepcji Lakatosa na szerokim tle problemów filozofii
matematyki (m.in. omówienie „ jego arcydzieła” Proofs and refutations, patrz [6])
znajduje się w książce [4, str. 256–314].
Recenzje
161
usiłował przy tym odtworzyć prawdziwy bieg ich myśli, zaciemniony,
a nawet zniekształcony przez późniejsze uproszczone opisy procesu dochodzenia przez nich do pojęć i twierdzeń w publikacjach historyków
matematyki. Występował przeciwko formalizmowi matematycznemu, wywodzącemu się z pozytywizmu logicznego (za błędne uważał m.in. pewne
poglądy Tarskiego).
Bardzo ostro Lakatos krytykował euklidesowy, deduktywistyczny styl
prezentowania teorii matematycznych zgodnie ze sztywnym schematem:
definicja, twierdzenie, dowód, z ukrywaniem, często w sposób sztuczny, genezy podawanych twierdzeń i sensu precyzyjnie – ale bez żadnej
motywacji – podawanych kroków dowodowych. Uważał to za szkodliwe
dla matematyki. Szczególnie negatywnie odbiło się to na jej nauczaniu.
Jednakże (jak to często bywa) konstruktywne aspekty jego programu
(wizja w pełni heurystycznego podręcznika) wyglądają zniechęcająco.
Lakatos głosił, że matematyka jest nauką quasi-empiryczną w tym
sensie, że pierwiastek empiryczny odgrywał i odgrywa istotną rolę w tworzeniu matematyki, jakkolwiek nie jest to empiryzm taki, jak w fizyce
i naukach przyrodniczych6. Pierwsza wersja tych koncepcji ukazała się
w 1963 roku. Nie została nigdy dopracowana z powodu przedwczesnej
śmierci Lakatosa.
Autor podaje te koncepcje wnikliwej analizie filozoficznej. Jakkolwiek matematyczne tezy Lakatosa są zbyt radykalne, a argumentacja nie
zawsze wiarygodna, niewątpliwą jego zasługą jest zwrócenie uwagi na
uproszczenia i jednostronność tych wcześniejszych analiz filozoficznych,
które za jedyne narzędzie dedukcji matematycznej uznawały logikę formalną. Otworzył on więc drogę do wielu innych analiz filozoficznych.
Rozdział trzeci poświęcony jest dowodom wymagającym nieusuwalnego użycia komputera. Głównym przykładem, świetnie nadającym się
do analiz filozoficznych, jest kwestia 4CT (Four Color Theorem) – wspomaganego komputerem dowodu hipotezy czterech barw7. Dało to impuls
6
Znacznie większe znaczenie mają publikacje Lakatosa dotyczące metodologii
nauk empirycznych (rewolucji kopernikańskiej, mechaniki Newtona, doświadczenia
Michelsona–Morleya, mechaniki kwantowej) i jego koncepcja twardego rdzenia programu badawczego. Zdaniem Lakatosa opracowana przezeń metodologia naukowych
programów badawczych miała istotny wpływ na jego poglądy dotyczące filozofii
matematyki (patrz [6, str. 9]).
7
Historia tego problemu i opis jego rozwiązania przez Kennetha Appela i Wolfganga Hakena znajduje się w napisanym przez nich rozdziale książki [8]. Filozoficzne
konsekwencje tego dowodu były omawiane w artykule [5]. Omówienie problemów
związanych z 4CT można znaleźć m.in. w popularyzatorskiej książce [1, str. 324–333] –
162
Recenzje
do wielu inspirujących analiz dotyczących statusu dowodów matematycznych i ich prawomocności. Autor daje nam pouczający przegląd i analizę
całego spektrum poglądów matematyków i filozofów na kwestię 4CT,
od negowania takich dowodów do ich uznawania. Zastrzeżenia dotyczą
nie tylko niemożności sprawdzenia poprawności kolejnych kroków pracy
komputera (bo błędy mogą przecież też być ukryte w długich i trudnych
dowodach tradycyjnych). Istotniejsze jest odejście od dotychczasowego
rozumienia dowodu jako rozumowania intersubiektywnie sprawdzalnego
(przez kompetentne osoby).
Rozdział czwarty dotyczy zagadnień nowych i mało znanych: filozoficznej analizy statusu dowodów wykorzystujących komputery kwantowe.
Są to układy fizyczne, zaprojektowane tak, aby wynik ewolucji układu
dawał rozwiązanie jakiegoś problemu obliczeniowego. Autor pisze, że
inspirującej analizie filozoficznej podlega jedynie ich model teoretyczny,
bowiem nie zostały do tej pory skonstruowane praktycznie użyteczne
komputery kwantowe8. Klarownie prezentuje zasadniczą ideę obliczeń
kwantowych. W opisie klasycznego komputera używa się pojęcia bitu
przyjmującego wartości 0 lub 1 – jedna liczba (0 lub 1) daje więc pełny
opis bitu w danym momencie. Kwantowym odpowiednikiem tego jest
kubit (qubit, skrót od quantum bit), najmniejsza niepodzielna jednostka
informacji kwantowej. Realizowane jest to przez pewien układ fizyczny,
który ma dwa stany podstawowe |0i i |1i. Przestrzenią stanów jest tu
dwuwymiarowa zespolona przestrzeń Hilberta, której bazę tworzą wektory |0i i |1i, a każdy stan jest kombinacją liniową a0 |0i+a1 |1i. Jeden kubit
opisany jest więc przez podanie pary liczb zespolonych, spełniających
warunek |a0 |2 + |a1 |2 = 1. Modelem fizycznym kubitu może być elektron
o spinie + 12 , − 21 lub spolaryzowany foton. Po wykonaniu na kubicie
pomiaru znajdzie się on z prawdopodobieństwem |a0 |2 w stanie a0 |0i,
a z prawdopodobieństwem |a1 |2 w stanie a1 |1i.
Stan układu kwantowego składającego się z n fotonów, traktowanych jako jeden układ, wymaga 2n liczb zespolonych, przy czym zdarzają się stany splątane, nierozkładalne na mniejsze kubity. Operacje
są tam też pewne filozoficznie interesujące spostrzeżenia, wychodzące poza to, czym
zajmuje się autor recenzowanej książki.
8
W Internecie można znaleźć różne informacje o sukcesach komputerów kwantowych, a także o zakupie takich komputerów przez Google i NASA w 2012 roku, ale
są to informacje dość ogólnikowe i trudno je ocenić. O bardziej konkretnym, nowym
wyniku wspomina się w miesięczniku Delta (patrz [10]): grupie fizyków udało się za
pomocą komputera kwantowego rozwiązać układ dwóch równań liniowych z dwiema
niewiadomymi, przy czym właściwe rozwiązanie znajdowane jest 9 razy na 10 prób.
163
Recenzje
wykonuje się na takich zestawach kubitów jako całościach. Zamiast
przetwarzać dany ciąg zer i jedynek, przetwarza się odpowiedni układ
kubitów.
Tu tkwi potencjalna siła komputerów kwantowych. Informacja zawarta na przykład w 1000 kubitach wymagałaby na klasycznych komputerach opisu składającego się z 21000 liczb, przekraczającego ich możliwości
pamięciowe. Obliczenia kwantowe stosują się w zasadzie do tych samych
zagadnień co obliczenia na klasycznych komputerach, ale (teoretycznie) może to odbywać się bez porównania szybciej. Istnieją algorytmy
kwantowe, które w czasie wielomianowym przeprowadzają obliczenia
wymagające na klasycznych komputerach czasu wykładniczego.
Wadą zaś komputerów kwantowych jest ich niestabilność. Pod wpływem oddziaływań zewnętrznych łatwo następuje tzw. dekoherencja –
układ wypada ze stanu superpozycji i w ciągu ułamka sekundy przeskakuje do jednego ze stanów stacjonarnych. Aby zapewnić stabilność,
trzeba budować odpowiednie urządzenia i tu leży zasadnicza trudność.
Bramki kwantowe (elementarne składniki komputera kwantowego
przetwarzające kubity) traktuje się jako operatory na odpowiednich,
skończeniewymiarowych przestrzeniach Hilberta. Autor podaje pewne
przykłady, używając notacji Diraca. Aby czytelnikowi Wiadomości Matematycznych ułatwić lekturę, użyję pojęć tradycyjnej algebry liniowej.
Wprowadźmy oznaczenia:
H=
!
1
1
,
1 −1
N=
!
0 1
,
1 0
!
1 1−i 1+i
U=
.
2 1+i 1−i
Macierze te wyznaczają operatory na dwuwymiarowej przestrzeni Hilberta. Mamy tu H 2 = I. W przypadku rzeczywistej przestrzeni R2
macierz H odpowiada obrotowi o 45◦ złożonemu z symetrią względem
prostej x = y. Macierz H opisuje tzw. bramkę Hadamarda, stosowaną
w algorytmach kwantowych.
Jeśli na wejściu do urządzenia jest 0, to wynikiem zastosowania
procedury odpowiadającej macierzy N jest 1 na wyjściu, a gdy na wejściu
jest 1, otrzymujemy 0. Procedura ta może więc być interpretowana jako
negacja. Macierz U spełnia warunek U 2 = N , toteż odpowiadający
jej operator jest operatorowym pierwiastkiem z negacji, symbolicznie
U 2 (p) = ¬p.
Po jednorazowym zastosowaniu U otrzymujemy dwa stany, każdy
z prawdopodobieństwem 12 . Gdyby do tego ponownie zastosować U , znów
dostaniemy dwa stany o charakterze losowym. Paradoksalnie, dwukrotne
164
Recenzje
zastosowanie procedury losowej U daje procedurę deterministyczną,
ale warunkiem jest to, by po pierwszym jej zastosowaniu nie wykonać
pomiaru stanu układu.
Pokazuje to zasadniczą różnicę między matematycznym statusem
dowodów dokonanych z pomocą klasycznego komputera a ewentualnym
dowodem dokonanym z użyciem komputera kwantowego. W tym pierwszym przypadku też wykorzystujemy proces fizyczny, ale teoretycznie
jesteśmy w stanie przerwać obliczenie w dowolnym momencie i sprawdzić stan układu. W przypadku komputera kwantowego mamy czarną
skrzynkę, do której nie można zajrzeć bez niszczenia stanu układu9.
Rozdział piąty dotyczy statusu dowodów matematycznych uzyskanych z pomocą hiperobliczeń, tj. procedur niealgorytmicznych (wykraczających poza teoretyczne możliwości maszyny Turinga), dokonanych
z pomocą układów fizycznych. Maszyn takich nie ma i nie wiadomo,
czy kiedykolwiek będą, ale ich istnienie jest zgodne z prawami fizyki.
Rozważanie potencjalnych możliwości i trudności prowadzi do interesujących analiz filozoficznych. Częściowo mają one charakter spekulacji,
a częściowo jest to antycypowanie realnych możliwości. Na przykład
wiadomo, że istnieje trójwymiarowe równanie fali mające obliczalne
współczynniki, które przy pewnych obliczalnych danych wejściowych
prowadzą do rozwiązania nie będącego funkcją obliczalną. Jakie byłoby rozwiązanie tego równania, gdyby je uzyskać za pomocą takiego
hiperobliczenia?
Rozwiązania uzyskane za pomocą hiperobliczeń kojarzą się z dawnymi
matematycznymi maszynami analogowymi, niecyfrowymi. Analiza możliwości stwarzanych przez hiperobliczenia prowadzi do wielu filozoficznie
ciekawych kwestii, m.in. związanych z naturą ludzkiego umysłu.
Podsumowując recenzję, należy stwierdzić, że dostaliśmy bardzo
dobrą, starannie i kompetentnie napisaną, udokumentowaną monografię,
poważną rozprawę, przedstawiającą systematycznie i krytycznie różne
punkty widzenia.
Choć to lektura interesująca dla matematyka, odnoszę wrażenie, że
jest adresowana do filozofów. Objawia się to nie tylko w systematycznym
używaniu typowego dla filozofii języka, lecz także w wielokrotnym przy9
Bardziej istotne jest jednak to, że dowód taki, jak przy 4CT, można uznać za
matematycznie poprawny, zakładając, że nie ma błędów w użytych tam programach
i że komputer nie uległ awarii. W przypadku komputerów kwantowych niepewność, czy
obliczenie nie zostało zakłócone, jest immanentnie wpisana w ich działanie i wynika
z praw fizyki.
Recenzje
165
pominaniu i uzasadnianiu pewnych kwestii oczywistych dla matematyka,
na przykład tego, że faktyczne dowody publikowane w czasopismach
są dalekie od sformalizowanych, a ich ewentualna formalizacja jest dla
matematyków nieciekawa. Autor zapewne liczył się z logistycznie ukierunkowanym czytelnikiem, którego trzeba przekonać do innych punktów
widzenia. Parokrotnie słusznie on podkreśla, że pewne skrajne opinie (na
przykład teza, że praktyka matematyków sprowadza się do przekształcania symboli pozbawionych interpretacji) są oczywiście fałszywe.
Praca nad tą monografią i jej wydanie było finansowane przez Fundację na rzecz Nauki Polskiej (co m.in. przyczyniło się do tego, że była jej
ongiś poświęcona półgodzinna audycja Programu II Polskiego Radia).
Bibliografia
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
[9]
[10]
J. D. Barrow, π razy drzwi, Prószyński i S-ka 1996.
R. Courant, Wspomnienia z Getyngi, Wiad. Mat. 18 (1974), 145–157.
R. Courant, H. Robbins, Co to jest matematyka?, Prószyński i S-ka 1998.
P. J. Davis, R. Hersh, E. A. Marchisotto, Świat matematyki, Wyd. Nauk.
PWN, 2001.
R. Duda, O nowej roli komputerów w matematyce, Wiad. Mat. 24 (1982),
47–57.
I. Lakatos, Dowody i refutacje. Logika odkrycia matematycznego, Tikkun,
Warszawa 2005.
R. Murawski, Filozofia matematyki. Antologia tekstów klasycznych, Wyd.
Nauk. UAM, Poznań 1986.
L. A. Steen (red.), Matematyka współczesna, WNT 1983.
K. Wójtowicz, Spór o istnienie w matematyce, Wyd. Semper, Warszawa
2003.
P. Zalewski, Aktualności (nie tylko) fizyczne, Delta 8 (2013), 21.
Zbigniew Semadeni (Warszawa)