F. Fernandez-Armesto - Historia prawdy s. 198-207
Transkrypt
F. Fernandez-Armesto - Historia prawdy s. 198-207
F. Fernandez–Armesto – Historia prawdy: s. 198–207 Naukowa kontrrewolucja: dwudziestowieczna niepewność W świecie dwudziestowiecznego Zachodu prawda została pogrzebana na „cmentarzu pewności”, jak nazywam cywilizację braku zaufania, w której trudno być czegokolwiek pewnym. Niepewność była częścią naukowej kontrrewolucji, która odrzuciła odziedziczony, uporządkowany obraz wszechświata i zastąpiła go obrazem, z którym żyjemy obecnie: chaotycznym, wewnętrznie sprzecznym, pełnym zdarzeń, których nie da się zaobserwować, niewykrywalnych cząstek, niemożliwych do ustalenia przyczyn i nieprzewidywalnych skutków. Lektura głośnych dzieł XX wieku jest niczym zwiedzanie grobowców na cmentarzu. Mniej uciążliwe jest śledzenie rezultatów upadku pewności w rewolucjach, które przetoczyły się przez zachodnią sztukę. Chronologia zmian percepcji w malarstwie jest ściśle sprzężona z wydarzeniami, które wstrząsnęły podstawami nauki i filozofii. W 1907 roku narodził się kubizm, który przedstawiał świat odbity w stłuczonym krzywym zwierciadle. Dadaizm, sztuka ziemi poprzerzynanej okopami i pokaleczonej drutem kolczastym, kleił neurotyczny kolaż ze szczątków rozbitego świata. W 1924 roku pierwszy manifest surrealistyczny obwieścił nastanie nowego nieporządku, w którym różnica między snem i jawą została zniesiona, znaczenie wycofane z użycia, absurd zaś uznany za normę. Artyści malowali świat opisywany przez naukowców — świat sprzecznych danych, nieudolnie przetwarzanych we fragmentaryczne obrazy. Wątpliwości zalały świat ufający w „bieg historii”. Naiwni optymiści znakomicie sportretowani u schyłku XIX wieku przez Czechowa, uosabiają właśnie taką wiarę. „Ludzkość kroczy naprzód, doskonaląc swe siły” — woła idealistycznie nastawiony student Trofimow, któremu zapatrzenie w przyszłość nie pozwala dostrzec ruiny wiśniowego sadu. „Wszystko, co teraz jest dla niej nieosiągalne, stanie się kiedyś bliskie, zrozumiale, trzeba tylko pracować, z całych sił pomagać tym, którzy szukają prawdy”1. Była to krucha „wiara w przyszłość, w nieskończony postęp i ludzkiego ducha”. Ernest Renan, przedstawiciel naukowego humanizmu, który napisał te słowa w 1890 roku, oczekiwał, że już wkrótce wszystkie tajemnice zostaną odsłonięte, a „Bóg objawi się w całej swojej pełni”2. Zamiast tego światu przybyło niewytłumaczalnych tajemnic, a Bóg stał się dalszy niż kiedykolwiek przedtem. Niemożności zachowania dawnych pewników dowiodło niepowodzenie obiecującego projektu przeciwstawienia się owej negatywnej tendencji poprzez osadzenie ich na ruchomym gruncie nauki. Pod wrażeniem odkrycia na początku naszego stulecia, że materia składa się z oddzielnych atomów, filozofowie przypisali taką samą strukturę prawdzie, traktując ją jako konstrukcję złożoną z przypominających atomy cząstkowych twierdzeń, z których każde musi być weryfikowalne w sposób niezależny od wzajemnych powiązań. Był to w pewnym sensie kres długiej drogi, którą przebyto od czasów dominacji najwcześniejszego znanego pojęcia prawdy — rozumianej jako element spójnego, niepodzielnego wszechświata (zob. s. 45-61). W swej skrajnej postaci, owa „atomistyczna teoria prawdy” zakładała weryfikację każdego twierdzenia uznanego za znaczące. Ruch filozoficzny, który sam siebie nazwał pozytywizmem logicznym, narodził się w końcu lat 20. naszego stulecia w Wiedniu, a kiedy się już wydawało, że umrze bezpotomnie, niespodziewanie odrodził się w Oksfordzie. Jego najważniejszym manifestem było Language, Truth and Logic, dzieło oksfordzkiego „dona” A. J. Ayera, który z właściwą sobie skromnością pretendował do tytułu „najinteligentniejszego Brytyjczyka”3 i — jako typowy reprezentant swojej sfery — większość czasu spędzał, wymieniając się z kolegami na żony i wiodąc przeraźliwie nudne dysputy o futbolu. Jego książka ukazała się w 1936 roku, ale zdobyła taką renomę, że w końcu lat 60., chociaż byłem jeszcze uczniem, czułem się moralnie zobowiązany do jej przeczytania. Obecnie wspominam tę lekturę jako jedno z największych rozczarowań mojej młodości — dorównujące temu, które wiązało się z moimi podręcznikami do łaciny, a zwłaszcza z niebieskim tomikiem zatytułowanym The Thought of Cicero. Esej Ayera wydał mi się dziecinnie niedojrzały i trywialny, oparty na prostackim materializmie i nienawiści do Boga. Był to filozoficzny paszkwil napisany przez niepoprawnego besserwissera, którego celem było ośmieszenie metafizyki. Obstawanie Ayera przy tezie, że wyłącznie obserwacja lub eksperyment mogą nadać znaczenie wypowiedzi lub zweryfikować twierdzenie, było stanowiskiem lojalnego niewolnika prawdy poznawanej za pomocą zmysłów. Miało też cechy samozaprzeczenia: „twierdzenie pozytywizmu logicznego, że prawda jest tym, co jest weryfikowalne (empirycznie lub logicznie), nie jest weryfikowalne ani empirycznie, ani logicznie”4. 1 A. Czechow, Wiśniowy sad, przeł. Cz. Jastrzębiec-Kozłowski, w: Wybór dramatów, Wrocław 1979, s. 743. E. Renan, L'Avenir de la science, Paris 1890, s. V. 3 P. Johnson, The Quest for God. A Personal Pilgrimage, London 19%, s. 21. 4 H. Putnam, Reason, Truth and History, Cambridge, Mass. 1981, s. 106. 2 W swej zapalczywości Ayer zignorował nawet najnowsze odkrycia współczesnej mu nauki. A właśnie w tym czasie, po okresie długiej zależności od zmysłów, nauka zaczęła gromadzić dowody ich niewystarczalności. Naukowcy musieli na nowo postawić sobie szereg pytań i podać w wątpliwość oczywiste do niedawna twierdzenie, że ich zadaniem jest opisywanie obiektywnej rzeczywistości. Od 1901 roku Einstein był pracownikiem technicznym w szwajcarskim urzędzie patentowym — geniuszem w trybach dyscyplinującej machiny państwowej. Wcześniej został wydalony ze szkoły za dawanie złego przykładu kolegom i z uniwersytetu za arogancję wobec wykładowców. Profesorska zawiść przekreśliła jego karierę akademicką i pogrzebała w niepamięci. W 1905 roku wydostał się na powierzchnię niczym górnik z kopalni i zdetonował straszliwy ładunek. Przedstawił teoretyczne wyjaśnienie eksperymentalnego paradoksu: prędkość światła, mierzona względem poruszających się przedmiotów, zdawała się nigdy nie zmieniać, niezależnie od prędkości, z jaką poruszało się jego źródło. Jeśli prędkość światła jest stała, rozumował Einstein, wobec tego czas i przestrzeń muszą być od niej zależne. W przypadku prędkości bliskich prędkości światła czas musi biec wolniej, a odległość się skracać. Powszechne przeświadczenie, że czas i przestrzeń mają charakter absolutny, wynika stąd, że w porównaniu ze światłem nigdy nie poruszamy się z dużą szybkością. Einstein od dziecka był entuzjastą kolei, a swą teorię względności lubił objaśniać za pomocą analogii z pociągami. Najbardziej obrazowym przykładem, jakim się posługiwał, był jednak paradoks bliźniąt, wymyślony w odpowiedzi na pytanie z sali podczas jednego z publicznych wykładów: w myśl teorii Einsteina bliźniak, którego wysłano by w superszybką podróż, powróciłby do domu młodszy od swojego brata. We wszechświecie Einsteina wszystkie pozory mylą. Masa i energia są wzajemnie wymienne. Proste równoległe przecinają się. Zdroworozsądkowe postrzeżenia znikają, jak gdyby zapadły się w norze Królika z Krainy Czarów. Teoria względności podkopała zaufanie do tradycyjnych pewników, ale sama w sobie nie obaliła pojęcia prawdy. Dzieło Einsteina zaszokowało świat swym nowatorstwem, ale było zwiastunem burzy dopiero nadchodzącej: względność, jak mawiał Einstein, „czekała jeszcze na odkrycie”. W 1902 roku Henri Poincaré opublikował pracę La Science et l'hypothése, w której podważył podstawowe założenie metody naukowej, a mianowicie związek między hipotezą i dowodem. Do rezultatu eksperymentu — stwierdził — można dopasować dowolną liczbę hipotez. Wybory dokonywane przez naukowców są w tym zakresie czysto konwencjonalne. Wśród przykładów, które poddał analizie, były prawa Newtona i tradycyjne pojęcia czasu i przestrzeni: a więc całe to dziedzictwo, które zakwestionowała teoria Einsteina. Praca Poincarégo jest oknem na świat nauki, którego przedstawiciele łamią sobie głowy nad bałamutnymi wynikami i gubią się w sprzecznościach — na laboratorium przemienione machnięciem różdżki ucznia czarnoksiężnika. Pomaga ona zrozumieć, dlaczego taki mechant jak Einstein mógł zostać zaakceptowany w tym konkretnym momencie dziejów1. Wszelako bezpośrednie przesłanie Poincarégo było jeszcze bardziej radykalne: przedstawił on argumenty przemawiające za wątpieniem we wszystkie twierdzenia, które wcześniej uważano za możliwe do udowodnienia. Jego sceptycyzm był rezultatem rozważań nad geometriami nieeuklidesowymi, a warto przypomnieć, że ten rodzaj geometrii, który kojarzy się z odkryciami Euklidesa, zawsze stanowił ważną inspirację dla poszukiwaczy prawdy (zob. s. 113-114). Poincaré zdawał się wątpić w realność liczb, traktując je jako konwencjonalny sposób porządkowania naszych postrzeżeń. Z równą pogardą odnosił się do matematyki i logiki, które uważał za systemy niezdolne do odkrywania prawdy, a których stosowanie było, jego zdaniem, podyktowane jedynie wygodą. Za życia Poincaré nie doczekał się uznania. Bertrand Russell, który w tym okresie uznał nauki przyrodnicze i matematykę za podstawę swojej własnej filozofii, wytknął formalne błędy w jego rozumowaniu. Jednak z upływem czasu „konwencjonalizm” stawał się coraz bardziej pomocny w wyjaśnianiu gwałtownych rewolucji w myśleniu naukowym. W latach 1911-1913 badania struktury atomów ujawniły, że elektrony krążące wokół jądra przemieszczają się między jego orbitami w sposób całkowicie przypadkowy. Odkrycia, będące następstwem prób zaobserwowania nieuchwytnych cząstek, z których składają się atomy, zostały uogólnione w nowej teorii zwanej mechaniką kwantową. Opierała się ona na paradoksie — teorii Nielsa Bohra dotyczącej sprzecznych własności światła, które można rozpatrywać jako fale lub cząsteczki. W połowie trzeciej dekady naszego stulecia nie można było ignorować kolejnych wzajemnie sprzecznych odkryć: w charakterystyce ruchu cząstek elementarnych ich położenie zdawało się nie do pogodzenia z ich pędem. Inaczej mówiąc, poruszały się one z inną niż dająca się zmierzyć prędkością oraz pojawiały w miejscach, w których nie miały prawa się znajdować. Wspólnym wysiłkiem Bohr i Werner Heisenberg ujęli owe niezgodne wartości w zasadę zwaną dziś zasadą nieoznaczoności lub zasadą niepewności. Ich dyskusja wywołała prawdziwą rewolucję epistemologiczną. Naukowcy, którzy wzięli w niej udział, uświadomili sobie, że świat „dużych przedmiotów” tworzy kontinuum ze światem cząstek elementarnych i że oba światy są częścią tej samej natury. Eksperymenty w obu sferach są skażone przez podobne ograniczenia. Obserwator jest częścią każdego doświadczenia, i nie istnieje taki poziom obserwacji, na którym jego odkrycia można by uznać za obiektywne. Zasada nieoznaczoności stawiała naukowców w sytuacji dawnych alchemików, którzy, dokonując skomplikowanych, „wieloetapowych” destylacji pod zmiennym wpływem gwiazd, nigdy nie byli w stanie powtórzyć warunków doświadczenia i przewidzieć jego rezultatu. Miało to ogromne znaczenie, gdyż dla przedstawicieli większości dyscyplin wiedzy nauki przyrodnicze stanowiły miarę obiektywizmu. Historycy, antropologowie, socjologowie, językoznawcy i nawet niektórzy badacze literatury zaczęli nazywać siebie naukowcami, wyrażając w ten sposób intencję uwolnienia się od ograniczeń, które wiążą się ze statusem przedmiotu doświadczenia. Okazało się jednak, że z naukowcami, w ścisłym znaczeniu tego terminu, łączy ich coś przeciwnego niż oczekiwali: wszyscy oni byli uwikłani w swoje odkrycia. Raz spadłszy w śmietnik zalegający dno klatki, nauka nigdy już nie zdołała wspiąć się z powrotem na swą empirejską grzędę. Kolejne próby wydawały się jedynie powiększać przepaść między podmiotem i przedmiotem. W 1960 roku, w jednej z najwybitniejszych prac, jakie kiedykolwiek filozof napisał na temat nauki, Thomas Kuhn stwierdził, że rewolucje naukowe są w swej istocie „przesunięciami paradygmatu”, czyli zmianami sposobu postrzegania świata oraz języka, w którym jest on opisywany. Kuhn jednak odrzucał wniosek, który powszechnie stąd wyciągano, a mianowicie, że odkrycia nauki nie zależą od obiektywnych faktów, lecz od perspektywy przyjętej przez badacza. Niepewność zyskała nową jakość, kiedy w 1963 roku została sformułowana teoria chaosu. Kontekst wydawał się niegroźny: długoterminowe prognozy pogody okazały się niewiarygodne z powodu nieprzewidywalnych konsekwencji przypadkowych zdarzeń. Słynne „machnięcie motylego skrzydła”, które miało być odpowiedzialne za niszczycielskie cyklony na terenach oddalonych o tysiące kilometrów, stało się symbolem niesystemowych zdarzeń, które zakłócają funkcjonowanie każdego systemu. Udowodniono eksperymentalnie, że nawet ruch wahadła i działanie grawitacji — będące od czasów Newtona probierzami tradycyjnej nauki, szukającej porządku we wszechświecie — podlegają chaotycznym zniekształceniom1. Powstanie teorii chaosu nie powinno było zaszkodzić pojęciu prawdy, gdyż wbrew pozorom nie usuwała ona porządku ze świata, a jedynie czyniła go czymś niewyobrażalnie, wręcz cudownie złożonym. Wszelako w połączeniu z wszystkimi innymi atakami na pewniki, które przypuszczono w tym czasie w nauce, filozofii i sztuce, potwierdzała ona, że do spisku należała także natura: chaotyczny wszechświat był odpowiednikiem sztuki bez znaczenia i myśli bez prawdy. Kiedy logika umiera: efekt Gödla Nawet po sformułowaniu zasady nieoznaczoności wciąż istniała możliwość odnalezienia drogi między pułapkami wykopanymi na cmentarzu pewności. Przynajmniej matematyka i logika wydawały się odporne na ekspansję świata kwantowej nieprzewidywalności. Pogląd, że te dwa systemy są ze sobą tożsame, a w każdym razie porównywalne, był w tych czasach wielką pociechą. Niektórzy filozofowie i matematycy chcieli to udowodnić: rozwinąć teorię Fregego (zob. s. 131-132), opracowując system, w którym kilka logicznych aksjomatów wystarczy do wykazania prawdziwości całej matematyki i całej reszty logiki. Bertrand Russell głosił wręcz, że zdołał tego dokonać — przynajmniej w odniesieniu do arytmetyki, jeśli nie całej matematyki — w obszernej pracy napisanej wspólnie ze swoim dawnym nauczycielem, Alfredem Nortonem Whiteheadem, a zatytułowanej Principia Mathematica (1910-1913). Na pozór było to dzieło o marmurowej doskonałości. Principia Mathematica kończyły się wyzwaniem: jeśli ktoś nadal wątpi w fundamentalną tożsamość matematyki i logiki, „niech pokaże, gdzie jedna się kończy, a druga zaczyna”. Obszerność tego dzieła, złożoność rachunku i ścisłość rozumowania czyniły strukturę systemu Russella i Whiteheada odporną na każdy atak. A jednak w 1931 roku wyzwanie zostało podjęte: bez większego wysiłku sprostał mu pewien dwudziestopięcioletni chudy okularnik z Wiednia. Kurt Gödel wierzył w matematykę, ale efekty jego pracy sprawiły, że podkopał tę wiarę w innych. Akceptował on pogląd Kanta, że wiedza o liczbach jest wiedzą aprioryczną, ale w innych zasiał ziarno zwątpienia. Był pewny — tak samo pewny jak Platon czy Pitagoras — że liczby rzeczywiście istnieją jako obiektywne byty, ale przyszedł w sukurs tym, dla których były one kwestią czystej konwencji. Przekonał świat, że wiedza o liczbach nie ma źródła w doświadczeniu — że nie jest rezultatem, dajmy na to, mierzenia czy porównywania przedmiotów — ale zgromadził przesłanki sugerujące, że w ogóle nie jest to „wiedza”, a jedynie hipoteza. Zakwestionował tradycyjny sposób pojmowania arytmetyki jako systemu rozumowania podobnego lub identycznego z logiką, ale wbrew jego intencjom zainspirowało to filozofów matematyki do opracowania nowej arytmetyki odrzucającej logikę, podobnie jak geometrie nieeuklidesowe odrzuciły tradycyjną fizykę. Sądził, że prawdy matematyczne są „nienegocjowalne”, ale oddzielając je od logiki, stał się mimowolnie ojcem chrzestnym tak zwanej matematyki „intuicjonistycznej”, której nie znosił. Matematyka intuicjonistyczna jest 1 J. Gleick, Chaos, przeł. P. Jaśkowski, Poznań 1996. bliska stwierdzeniu, że każdy człowiek ma swą własną matematykę i że dowodzenie ma na celu jedynie zaspokojenie potrzeb dowodzącego. „To, co pokłada ufność w rachunkach i liczeniu — powiada Platon — musi być najlepszą częścią duszy”, a zajmowanie się liczbami „widocznie skłania duszę, żeby się samym rozumem posługiwała, aby osiągnąć samą prawdę”1. Utrata tego zaufania i zaniedbywanie tej skłonności powoduje niepowetowane szkody. Bertrand Russell, który chyba nigdy nie wybaczył Gödlowi, że ten wytknął mu błąd, uważał Austriaka za platonika, który „najwyraźniej wierzy, iż wieczyste «nie» złożone jest w niebiosach, gdzie cnotliwi logicy mają nadzieję spotkać się po śmierci”2. Gödel zburzył misterną konstrukcję Russella i Whiteheada za pomocą niezwykle prostych środków, które zarazem niesłychanie trudno było zastosować w praktyce. Posłużył się on jedną z ulubionych metod Russella, a mianowicie zbudował metasystem umożliwiający przetestowanie pierwotnego systemu. Jeśli chcemy udowodnić lub obalić twierdzenie, że proste równoległe nigdy się nie przecinają, nie możemy uczynić tego w obrębie geometrii euklidesowej, gdyż twierdzenie to jest aksjomatem tego systemu; musimy stworzyć jakiś inny, szerszy system. Tak jak Russell i Whitehead opracowali rachunek, w którym logika i matematyka mogą być wyrażane za pomocą tej samej formy notacji, tak też Gödel opracował metarachunek, w którym ich twierdzenia mogły zostać zweryfikowane poprzez przypisanie im wartości liczbowych, czyli tak zwaną „arytmetyzację formuł”. Nie trzeba szczegółowo analizować argumentu Gödla (sam mam o nim zaledwie mgliste pojęcie), aby uznać prawomocność jego konkluzji. Nie istnieje taki zbiór aksjomatów, który mógłby stanowić kompletną podstawę arytmetyki (nawet jeśli przyjmiemy, że wszystkie one, jak przystało na aksjomaty, są prawdziwe); są w arytmetyce twierdzenia, których prawdziwości arytmetyka nie jest w stanie udowodnić (nawet jeśli przyjmiemy, że liczby rzeczywiście istnieją); brak procedur logicznych, które pozwoliłyby stwierdzić prawdziwość lub fałszywość wszystkich twierdzeń arytmetycznych; prędzej lub później, zawsze uzyska się sprzeczne wyniki. To samo zastrzeżenie stosuje się do wszystkich podobnych systemów formalnego rozumowania, nie wyłączając logiki w rozumieniu Russella i Whiteheada i reszty tradycyjnej matematyki. Żaden formalny system nie opisuje w zadowalający sposób samego siebie. Tak jak Bohr i Heisenberg zostawili naukę na mieliźnie nieoznaczoności, tak też Gödel wyrzucił teraz na plażę matematykę i logikę3. U podłoża twierdzenia Gödla leżało przekonanie zrozumiałe i akceptowalne dla ucznia szkoły średniej, że aksjomatów nie da się dowieść w obrębie systemu, na którym są one oparte. Ostatecznie dlatego właśnie są aksjomatami, a nie wnioskami. Następny etap rozumowania Gödla był mniej przewidywalny, ale równie zrozumiały: każdy system generuje problemy, których jego aksjomaty, nawet jeśli zostały dowiedzione, nie są w stanie rozstrzygnąć. Wpływ twierdzenia Gödla na sposób, w jaki ludzie obecnie myślą, można porównać do wpływu termitów na świadomość pasażerów statku uważanego wcześniej za niezatapialny: szok był nieunikniony. Jeżeli matematyka i logika są dziurawe, to świat jest statkiem szaleńców4. 1 Platon, Państwo, przeł. W. Witwicki, t. 1, Warszawa 1990, s. 380. The Autobiography of Bertrand Russell, t. 2, London 1968, s. 224. 3 D. Hofstadter, Gödel, Escher, Bach. An Eternal Golden Braid, Harmondsworth 1980, s. 19; por. E. Nagel i J.R. Newman, Gödel 's Proof, New York 1958. 4 M. Kline, Mathematics. The Loss of Certainty, Oxford 1991. 2