Kliknij tutaj - Wydawnictwa PTM - Polskie Towarzystwo Matematyczne
Transkrypt
Kliknij tutaj - Wydawnictwa PTM - Polskie Towarzystwo Matematyczne
158 Recenzje Krzysztof Wójtowicz, O pojęciu dowodu w matematyce, Monografie Fundacji na rzecz Nauki Polskiej, Wydawnictwo Naukowe Uniwersytetu Mikołaja Kopernika, Toruń 2012, 250 str. Monografia ta poświęcona jest filozoficznej analizie statusu i swoistości dowodów matematycznych oraz refleksji nad naturą i specyfiką argumentacji matematycznej. Autor, profesor Instytutu Filozofii Uniwersytetu Warszawskiego, a zarazem matematyk po studiach na UW, systematycznie prezentuje pewien krąg zagadnień wiążących się z trzema motywami przewodnimi: 1. problem relacji między realnymi, komunikatywnymi dowodami tworzonymi przez matematyków a dowodami wyidealizowanymi, sformalizowanymi, traktowanymi jako formalne ciągi symboli w ramach paradygmatu maszyny Turinga, w tym problem swoistego napięcia między treściowym a formalnym rozumieniem dowodów; 2. problem eksplanacyjnej roli dowodów i ich wpływu na rozumienie twierdzenia, wyróżnienie dowodów, które tylko przekonują, i dowodów, które wyjaśniają; 3. problem elementów empirycznych w dowodach matematycznych (w szczególności dowodów z użyciem komputera) i matematycznego statusu argumentacji, której źródłem nie jest wyłącznie rozum. Autor nie zajmuje się tu problematyką ontologiczną1, która przeżywała burzliwy rozwój sto lat temu, gdy krystalizowały się trzy grupy stanowisk (logicyzm, intuicjonizm, formalizm). Autor skupia się na problematyce metodologicznej, choć oczywiście kwestia natury obiektów matematyki jest stale obecna w tle prowadzonych rozważań. W rozdziale pierwszym przedstawione są dwa podejścia do tego, czym jest dowód matematyczny. Jedno z nich, zwane semantycznym lub treściowym, oparte na intuicyjnym wglądzie w przedmiot dowodu, na postrzeganiu prawomocności i oczywistości każdego kroku. Ważne przy tym jest to, aby móc objąć całość jednym spojrzeniem. Oparte jest to na przekonaniu, że język matematyczny pełni rolę nośnika pewnych obiektywnych treści i tych treści dotyczy dowód. Modelowy tego opis dał Kartezjusz. Drugie podejście jest syntaktyczne, czyli formalistyczne, oparte na manipulowaniu symbolami zgodnie z przyjętymi regułami. Przy tym uję1 Kwestie ontologiczne są przedmiotem innej książki [9] tego samego autora. c 2013 Polskie Towarzystwo Matematyczne Recenzje 159 ciu język matematyki stanowi formalne, czysto instrumentalne narzędzie poznania; nie trzeba postulować, że reprezentuje on pewną pozajęzykową rzeczywistość. Dowód to czysto syntaktyczny konstrukt – mechaniczne, nieodwołujące się do intuicji operacje na symbolach2. Prekursorem takiego sposobu myślenia był, zdaniem autora, George Berkeley (1685–1753), zdecydowany nominalista i skrajny idealista, który uważał, że uzasadnieniem dla zdań matematyki jest ich użyteczność, a nie intuicyjna oczywistość, która bynajmniej nie gwarantuje ich prawomocności. Twierdził on, że język matematyki jest pozbawiony interpretacji, nie opisuje wiecznych i niezmiennych prawd matematycznych. Berkeley porównał matematykę do gry, w której terminy matematyczne pełnią rolę żetonów. Jako przykład podawał użycie algebraicznego znaku określającego pierwiastek z liczby ujemnej, choć nie jest możliwe utworzenie idei takiej wielkości. Stanowisko Berkeleya, które można określić jako lingwistyczny instrumentalizm, jest bliskie neopozytywistycznej koncepcji matematyki jako swoistej składni języka nauki. W szczególności, Rudolf Carnap (1891–1970) przypisywał twierdzeniom matematycznym charakter prawd czysto konwencjonalnych, które przyjmujemy tylko ze względu na wygodę i ekonomię myślenia. W XIX wieku okazało się, że kryterium intuicyjności i oczywistości przestało wystarczać. Przekonano się, że intuicje, zwłaszcza geometryczne, mogą być zwodnicze3. W wyniku stopniowej ewolucji odchodzono od kartezjańskiego postulatu treściowej kontroli kolejnych kroków rozumowania na rzecz postępowania zgodnego z pewnymi regułami, m.in. postulowano zwiększenie ścisłości dowodów przez ich 2 Za głównego rzecznika formalizmu słusznie uważa się Hilberta. Jednakże to właśnie Hilbert w 1926 roku, powołując się na Kanta, wypowiedział swą znaną opinię (również cytowaną w recenzowanej książce), że matematyka posiada treść pewną i niezależną od logiki i że w związku z tym nigdy nie może zostać ugruntowana w oparciu o samą tylko logikę, a warunkiem wstępnym wszelkich rozumowań są pewne konkretne obiekty, jawiące się jako doświadczane bezpośrednio przed wszelkim myśleniem (pełny tekst tej wypowiedzi znajduje się w książce [7] R. Murawskiego). Warto tu dodać, że Richard Courant (uczeń i bliski współpracownik Hilberta) napisał, że Hilbert był jednym z najbardziej konkretnych matematyków intuicyjnych (patrz artykuł [2, str. 152]). Courant starał się zademonstrować ów hilbertowski dualizm formalizmu i intuicji w znanej książce [3], napisanej wspólnie z Herbertem Robbinsem; w przedmowie pisał: „by poza formalizmem matematycznym i przekształceniami uchwycić istotną treść matematyki”. 3 Jednym z czołowych krytyków odwoływania się do geometrycznej intuicji był Hans Hahn (znany matematykom z twierdzenia Hahna–Banacha), czołowy przedstawiciel Koła Wiedeńskiego. Jego wywody wskazujące na błędne wnioski z intuicyjnych przesłanek adresowane były raczej do filozofów niż do matematyków. 160 Recenzje częściową algebraizację4. Autor opisuje argumentację Peacocka, Pascha, Grundlagen der Geometrie Hilberta, podejście Fregego i program Hilberta. Logicyzm i formalizm odebrały intuicji matematycznej rolę arbitra – przejęła ją logika. Oba te nurty filozofii matematyki miały silnie normatywny charakter. Autor twierdzi, że ich tezy dotyczyły nie praktyki matematycznej, lecz pewnej wyidealizowanej wizji dowodu matematycznego, idealnego wzorca ścisłości. W I połowie XX wieku wyraźny był wzrost rygoryzmu w samej matematyce. Powstała kategoria dowodów wymuszających zgodę co do ich poprawności. Istotną zmianą było odejście od myślenia o teoriach aksjomatycznych w kategoriach zamierzonych interpretacji pojęć. Szczególnie wyraźne było to w przypadku geometrii. Formalizm można rozpatrywać w wersji skrajnej (formalna gra symboli pozbawionych znaczenia), lecz także w szerszej, słabszej wersji. Nadal chodzi tu o odejście od „treściowego”, intuicyjnego rozumienia dowodów, połączone z refleksją dotyczącą reguł, na których ma opierać się rozumowanie. Tradycja filozofii matematyki pierwszej połowy XX wieku, zdominowana przez ambicję racjonalnej rekonstrukcji procesu dowodzenia i wykazania, że jest ono bezpieczne i nie wiedzie do sprzeczności, wyraźnie osłabła pod wpływem coraz silniejszych, antyfundacjonalistycznych tendencji II połowy XX wieku. Zamiast pełnić rolę normatywną, filozofia przesunęła się w kierunku deskryptywnym, w kierunku opisu faktycznych dowodów mających przekonać kompetentnych matematyków do uznania dowodzonych twierdzeń. Zaczęto podkreślać konieczność analizy procesu tworzenia matematyki, jej odkrywania, a nie tylko uzasadniania. Rozdział drugi poświęcony jest antyfundacjonalizmowi Imre Lakatosa (1922–1974), który uważał formalizm za ostatnie ogniwo w łańcuchu dogmatystycznych koncepcji filozofii matematyki, wywodzących się z kultu podejścia Euklidesa, z paradygmatu prawdziwej i pewnej wiedzy matematycznej, autorytatywnej, niezawodnej i niepodważalnej5. Interesował się on teoriami matematycznymi w wersjach ich pierwszych twórców, 4 Paradoksalnie, to właśnie metoda Kartezjusza wprowadzenia układu współrzędnych do geometrii przyczyniła się do odchodzenia od kartezjańskiego, treściowego podejścia do dowodzenia. 5 Bardzo dobry przegląd koncepcji Lakatosa na szerokim tle problemów filozofii matematyki (m.in. omówienie „ jego arcydzieła” Proofs and refutations, patrz [6]) znajduje się w książce [4, str. 256–314]. Recenzje 161 usiłował przy tym odtworzyć prawdziwy bieg ich myśli, zaciemniony, a nawet zniekształcony przez późniejsze uproszczone opisy procesu dochodzenia przez nich do pojęć i twierdzeń w publikacjach historyków matematyki. Występował przeciwko formalizmowi matematycznemu, wywodzącemu się z pozytywizmu logicznego (za błędne uważał m.in. pewne poglądy Tarskiego). Bardzo ostro Lakatos krytykował euklidesowy, deduktywistyczny styl prezentowania teorii matematycznych zgodnie ze sztywnym schematem: definicja, twierdzenie, dowód, z ukrywaniem, często w sposób sztuczny, genezy podawanych twierdzeń i sensu precyzyjnie – ale bez żadnej motywacji – podawanych kroków dowodowych. Uważał to za szkodliwe dla matematyki. Szczególnie negatywnie odbiło się to na jej nauczaniu. Jednakże (jak to często bywa) konstruktywne aspekty jego programu (wizja w pełni heurystycznego podręcznika) wyglądają zniechęcająco. Lakatos głosił, że matematyka jest nauką quasi-empiryczną w tym sensie, że pierwiastek empiryczny odgrywał i odgrywa istotną rolę w tworzeniu matematyki, jakkolwiek nie jest to empiryzm taki, jak w fizyce i naukach przyrodniczych6. Pierwsza wersja tych koncepcji ukazała się w 1963 roku. Nie została nigdy dopracowana z powodu przedwczesnej śmierci Lakatosa. Autor podaje te koncepcje wnikliwej analizie filozoficznej. Jakkolwiek matematyczne tezy Lakatosa są zbyt radykalne, a argumentacja nie zawsze wiarygodna, niewątpliwą jego zasługą jest zwrócenie uwagi na uproszczenia i jednostronność tych wcześniejszych analiz filozoficznych, które za jedyne narzędzie dedukcji matematycznej uznawały logikę formalną. Otworzył on więc drogę do wielu innych analiz filozoficznych. Rozdział trzeci poświęcony jest dowodom wymagającym nieusuwalnego użycia komputera. Głównym przykładem, świetnie nadającym się do analiz filozoficznych, jest kwestia 4CT (Four Color Theorem) – wspomaganego komputerem dowodu hipotezy czterech barw7. Dało to impuls 6 Znacznie większe znaczenie mają publikacje Lakatosa dotyczące metodologii nauk empirycznych (rewolucji kopernikańskiej, mechaniki Newtona, doświadczenia Michelsona–Morleya, mechaniki kwantowej) i jego koncepcja twardego rdzenia programu badawczego. Zdaniem Lakatosa opracowana przezeń metodologia naukowych programów badawczych miała istotny wpływ na jego poglądy dotyczące filozofii matematyki (patrz [6, str. 9]). 7 Historia tego problemu i opis jego rozwiązania przez Kennetha Appela i Wolfganga Hakena znajduje się w napisanym przez nich rozdziale książki [8]. Filozoficzne konsekwencje tego dowodu były omawiane w artykule [5]. Omówienie problemów związanych z 4CT można znaleźć m.in. w popularyzatorskiej książce [1, str. 324–333] – 162 Recenzje do wielu inspirujących analiz dotyczących statusu dowodów matematycznych i ich prawomocności. Autor daje nam pouczający przegląd i analizę całego spektrum poglądów matematyków i filozofów na kwestię 4CT, od negowania takich dowodów do ich uznawania. Zastrzeżenia dotyczą nie tylko niemożności sprawdzenia poprawności kolejnych kroków pracy komputera (bo błędy mogą przecież też być ukryte w długich i trudnych dowodach tradycyjnych). Istotniejsze jest odejście od dotychczasowego rozumienia dowodu jako rozumowania intersubiektywnie sprawdzalnego (przez kompetentne osoby). Rozdział czwarty dotyczy zagadnień nowych i mało znanych: filozoficznej analizy statusu dowodów wykorzystujących komputery kwantowe. Są to układy fizyczne, zaprojektowane tak, aby wynik ewolucji układu dawał rozwiązanie jakiegoś problemu obliczeniowego. Autor pisze, że inspirującej analizie filozoficznej podlega jedynie ich model teoretyczny, bowiem nie zostały do tej pory skonstruowane praktycznie użyteczne komputery kwantowe8. Klarownie prezentuje zasadniczą ideę obliczeń kwantowych. W opisie klasycznego komputera używa się pojęcia bitu przyjmującego wartości 0 lub 1 – jedna liczba (0 lub 1) daje więc pełny opis bitu w danym momencie. Kwantowym odpowiednikiem tego jest kubit (qubit, skrót od quantum bit), najmniejsza niepodzielna jednostka informacji kwantowej. Realizowane jest to przez pewien układ fizyczny, który ma dwa stany podstawowe |0i i |1i. Przestrzenią stanów jest tu dwuwymiarowa zespolona przestrzeń Hilberta, której bazę tworzą wektory |0i i |1i, a każdy stan jest kombinacją liniową a0 |0i+a1 |1i. Jeden kubit opisany jest więc przez podanie pary liczb zespolonych, spełniających warunek |a0 |2 + |a1 |2 = 1. Modelem fizycznym kubitu może być elektron o spinie + 12 , − 21 lub spolaryzowany foton. Po wykonaniu na kubicie pomiaru znajdzie się on z prawdopodobieństwem |a0 |2 w stanie a0 |0i, a z prawdopodobieństwem |a1 |2 w stanie a1 |1i. Stan układu kwantowego składającego się z n fotonów, traktowanych jako jeden układ, wymaga 2n liczb zespolonych, przy czym zdarzają się stany splątane, nierozkładalne na mniejsze kubity. Operacje są tam też pewne filozoficznie interesujące spostrzeżenia, wychodzące poza to, czym zajmuje się autor recenzowanej książki. 8 W Internecie można znaleźć różne informacje o sukcesach komputerów kwantowych, a także o zakupie takich komputerów przez Google i NASA w 2012 roku, ale są to informacje dość ogólnikowe i trudno je ocenić. O bardziej konkretnym, nowym wyniku wspomina się w miesięczniku Delta (patrz [10]): grupie fizyków udało się za pomocą komputera kwantowego rozwiązać układ dwóch równań liniowych z dwiema niewiadomymi, przy czym właściwe rozwiązanie znajdowane jest 9 razy na 10 prób. 163 Recenzje wykonuje się na takich zestawach kubitów jako całościach. Zamiast przetwarzać dany ciąg zer i jedynek, przetwarza się odpowiedni układ kubitów. Tu tkwi potencjalna siła komputerów kwantowych. Informacja zawarta na przykład w 1000 kubitach wymagałaby na klasycznych komputerach opisu składającego się z 21000 liczb, przekraczającego ich możliwości pamięciowe. Obliczenia kwantowe stosują się w zasadzie do tych samych zagadnień co obliczenia na klasycznych komputerach, ale (teoretycznie) może to odbywać się bez porównania szybciej. Istnieją algorytmy kwantowe, które w czasie wielomianowym przeprowadzają obliczenia wymagające na klasycznych komputerach czasu wykładniczego. Wadą zaś komputerów kwantowych jest ich niestabilność. Pod wpływem oddziaływań zewnętrznych łatwo następuje tzw. dekoherencja – układ wypada ze stanu superpozycji i w ciągu ułamka sekundy przeskakuje do jednego ze stanów stacjonarnych. Aby zapewnić stabilność, trzeba budować odpowiednie urządzenia i tu leży zasadnicza trudność. Bramki kwantowe (elementarne składniki komputera kwantowego przetwarzające kubity) traktuje się jako operatory na odpowiednich, skończeniewymiarowych przestrzeniach Hilberta. Autor podaje pewne przykłady, używając notacji Diraca. Aby czytelnikowi Wiadomości Matematycznych ułatwić lekturę, użyję pojęć tradycyjnej algebry liniowej. Wprowadźmy oznaczenia: H= ! 1 1 , 1 −1 N= ! 0 1 , 1 0 ! 1 1−i 1+i U= . 2 1+i 1−i Macierze te wyznaczają operatory na dwuwymiarowej przestrzeni Hilberta. Mamy tu H 2 = I. W przypadku rzeczywistej przestrzeni R2 macierz H odpowiada obrotowi o 45◦ złożonemu z symetrią względem prostej x = y. Macierz H opisuje tzw. bramkę Hadamarda, stosowaną w algorytmach kwantowych. Jeśli na wejściu do urządzenia jest 0, to wynikiem zastosowania procedury odpowiadającej macierzy N jest 1 na wyjściu, a gdy na wejściu jest 1, otrzymujemy 0. Procedura ta może więc być interpretowana jako negacja. Macierz U spełnia warunek U 2 = N , toteż odpowiadający jej operator jest operatorowym pierwiastkiem z negacji, symbolicznie U 2 (p) = ¬p. Po jednorazowym zastosowaniu U otrzymujemy dwa stany, każdy z prawdopodobieństwem 12 . Gdyby do tego ponownie zastosować U , znów dostaniemy dwa stany o charakterze losowym. Paradoksalnie, dwukrotne 164 Recenzje zastosowanie procedury losowej U daje procedurę deterministyczną, ale warunkiem jest to, by po pierwszym jej zastosowaniu nie wykonać pomiaru stanu układu. Pokazuje to zasadniczą różnicę między matematycznym statusem dowodów dokonanych z pomocą klasycznego komputera a ewentualnym dowodem dokonanym z użyciem komputera kwantowego. W tym pierwszym przypadku też wykorzystujemy proces fizyczny, ale teoretycznie jesteśmy w stanie przerwać obliczenie w dowolnym momencie i sprawdzić stan układu. W przypadku komputera kwantowego mamy czarną skrzynkę, do której nie można zajrzeć bez niszczenia stanu układu9. Rozdział piąty dotyczy statusu dowodów matematycznych uzyskanych z pomocą hiperobliczeń, tj. procedur niealgorytmicznych (wykraczających poza teoretyczne możliwości maszyny Turinga), dokonanych z pomocą układów fizycznych. Maszyn takich nie ma i nie wiadomo, czy kiedykolwiek będą, ale ich istnienie jest zgodne z prawami fizyki. Rozważanie potencjalnych możliwości i trudności prowadzi do interesujących analiz filozoficznych. Częściowo mają one charakter spekulacji, a częściowo jest to antycypowanie realnych możliwości. Na przykład wiadomo, że istnieje trójwymiarowe równanie fali mające obliczalne współczynniki, które przy pewnych obliczalnych danych wejściowych prowadzą do rozwiązania nie będącego funkcją obliczalną. Jakie byłoby rozwiązanie tego równania, gdyby je uzyskać za pomocą takiego hiperobliczenia? Rozwiązania uzyskane za pomocą hiperobliczeń kojarzą się z dawnymi matematycznymi maszynami analogowymi, niecyfrowymi. Analiza możliwości stwarzanych przez hiperobliczenia prowadzi do wielu filozoficznie ciekawych kwestii, m.in. związanych z naturą ludzkiego umysłu. Podsumowując recenzję, należy stwierdzić, że dostaliśmy bardzo dobrą, starannie i kompetentnie napisaną, udokumentowaną monografię, poważną rozprawę, przedstawiającą systematycznie i krytycznie różne punkty widzenia. Choć to lektura interesująca dla matematyka, odnoszę wrażenie, że jest adresowana do filozofów. Objawia się to nie tylko w systematycznym używaniu typowego dla filozofii języka, lecz także w wielokrotnym przy9 Bardziej istotne jest jednak to, że dowód taki, jak przy 4CT, można uznać za matematycznie poprawny, zakładając, że nie ma błędów w użytych tam programach i że komputer nie uległ awarii. W przypadku komputerów kwantowych niepewność, czy obliczenie nie zostało zakłócone, jest immanentnie wpisana w ich działanie i wynika z praw fizyki. Recenzje 165 pominaniu i uzasadnianiu pewnych kwestii oczywistych dla matematyka, na przykład tego, że faktyczne dowody publikowane w czasopismach są dalekie od sformalizowanych, a ich ewentualna formalizacja jest dla matematyków nieciekawa. Autor zapewne liczył się z logistycznie ukierunkowanym czytelnikiem, którego trzeba przekonać do innych punktów widzenia. Parokrotnie słusznie on podkreśla, że pewne skrajne opinie (na przykład teza, że praktyka matematyków sprowadza się do przekształcania symboli pozbawionych interpretacji) są oczywiście fałszywe. Praca nad tą monografią i jej wydanie było finansowane przez Fundację na rzecz Nauki Polskiej (co m.in. przyczyniło się do tego, że była jej ongiś poświęcona półgodzinna audycja Programu II Polskiego Radia). Bibliografia [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] J. D. Barrow, π razy drzwi, Prószyński i S-ka 1996. R. Courant, Wspomnienia z Getyngi, Wiad. Mat. 18 (1974), 145–157. R. Courant, H. Robbins, Co to jest matematyka?, Prószyński i S-ka 1998. P. J. Davis, R. Hersh, E. A. Marchisotto, Świat matematyki, Wyd. Nauk. PWN, 2001. R. Duda, O nowej roli komputerów w matematyce, Wiad. Mat. 24 (1982), 47–57. I. Lakatos, Dowody i refutacje. Logika odkrycia matematycznego, Tikkun, Warszawa 2005. R. Murawski, Filozofia matematyki. Antologia tekstów klasycznych, Wyd. Nauk. UAM, Poznań 1986. L. A. Steen (red.), Matematyka współczesna, WNT 1983. K. Wójtowicz, Spór o istnienie w matematyce, Wyd. Semper, Warszawa 2003. P. Zalewski, Aktualności (nie tylko) fizyczne, Delta 8 (2013), 21. Zbigniew Semadeni (Warszawa)