F. Fernandez-Armesto - Historia prawdy s. 198-207

Transkrypt

F. Fernandez-Armesto - Historia prawdy s. 198-207
F. Fernandez–Armesto – Historia prawdy: s. 198–207
Naukowa kontrrewolucja: dwudziestowieczna niepewność
W świecie dwudziestowiecznego Zachodu prawda została pogrzebana na „cmentarzu pewności”, jak nazywam
cywilizację braku zaufania, w której trudno być czegokolwiek pewnym. Niepewność była częścią naukowej
kontrrewolucji, która odrzuciła odziedziczony, uporządkowany obraz wszechświata i zastąpiła go obrazem, z
którym żyjemy obecnie: chaotycznym, wewnętrznie sprzecznym, pełnym zdarzeń, których nie da się zaobserwować,
niewykrywalnych cząstek, niemożliwych do ustalenia przyczyn i nieprzewidywalnych skutków. Lektura głośnych dzieł
XX wieku jest niczym zwiedzanie grobowców na cmentarzu. Mniej uciążliwe jest śledzenie rezultatów upadku
pewności w rewolucjach, które przetoczyły się przez zachodnią sztukę. Chronologia zmian percepcji w malarstwie
jest ściśle sprzężona z wydarzeniami, które wstrząsnęły podstawami nauki i filozofii. W 1907 roku narodził się
kubizm, który przedstawiał świat odbity w stłuczonym krzywym zwierciadle. Dadaizm, sztuka ziemi
poprzerzynanej okopami i pokaleczonej drutem kolczastym, kleił neurotyczny kolaż ze szczątków rozbitego
świata. W 1924 roku pierwszy manifest surrealistyczny obwieścił nastanie nowego nieporządku, w którym różnica
między snem i jawą została zniesiona, znaczenie wycofane z użycia, absurd zaś uznany za normę. Artyści malowali
świat opisywany przez naukowców — świat sprzecznych danych, nieudolnie przetwarzanych we fragmentaryczne
obrazy.
Wątpliwości zalały świat ufający w „bieg historii”. Naiwni optymiści znakomicie sportretowani u schyłku
XIX wieku przez Czechowa, uosabiają właśnie taką wiarę. „Ludzkość kroczy naprzód, doskonaląc swe siły” —
woła idealistycznie nastawiony student Trofimow, któremu zapatrzenie w przyszłość nie pozwala dostrzec ruiny
wiśniowego sadu. „Wszystko, co teraz jest dla niej nieosiągalne, stanie się kiedyś bliskie, zrozumiale, trzeba tylko
pracować, z całych sił pomagać tym, którzy szukają prawdy”1. Była to krucha „wiara w przyszłość, w
nieskończony postęp i ludzkiego ducha”. Ernest Renan, przedstawiciel naukowego humanizmu, który napisał te
słowa w 1890 roku, oczekiwał, że już wkrótce wszystkie tajemnice zostaną odsłonięte, a „Bóg objawi się w całej
swojej pełni”2. Zamiast tego światu przybyło niewytłumaczalnych tajemnic, a Bóg stał się dalszy niż
kiedykolwiek przedtem.
Niemożności zachowania dawnych pewników dowiodło niepowodzenie obiecującego projektu
przeciwstawienia się owej negatywnej tendencji poprzez osadzenie ich na ruchomym gruncie nauki. Pod
wrażeniem odkrycia na początku naszego stulecia, że materia składa się z oddzielnych atomów, filozofowie
przypisali taką samą strukturę prawdzie, traktując ją jako konstrukcję złożoną z przypominających atomy
cząstkowych twierdzeń, z których każde musi być weryfikowalne w sposób niezależny od wzajemnych powiązań.
Był to w pewnym sensie kres długiej drogi, którą przebyto od czasów dominacji najwcześniejszego znanego pojęcia prawdy — rozumianej jako element spójnego, niepodzielnego wszechświata (zob. s. 45-61). W swej skrajnej
postaci, owa „atomistyczna teoria prawdy” zakładała weryfikację każdego twierdzenia uznanego za znaczące.
Ruch filozoficzny, który sam siebie nazwał pozytywizmem logicznym, narodził się w końcu lat 20. naszego
stulecia w Wiedniu, a kiedy się już wydawało, że umrze bezpotomnie, niespodziewanie odrodził się w Oksfordzie.
Jego najważniejszym manifestem było Language, Truth and Logic, dzieło oksfordzkiego „dona” A. J. Ayera,
który z właściwą sobie skromnością pretendował do tytułu „najinteligentniejszego Brytyjczyka”3 i — jako
typowy reprezentant swojej sfery — większość czasu spędzał, wymieniając się z kolegami na żony i wiodąc
przeraźliwie nudne dysputy o futbolu.
Jego książka ukazała się w 1936 roku, ale zdobyła taką renomę, że w końcu lat 60., chociaż byłem
jeszcze uczniem, czułem się moralnie zobowiązany do jej przeczytania. Obecnie wspominam tę lekturę jako
jedno z największych rozczarowań mojej młodości — dorównujące temu, które wiązało się z moimi
podręcznikami do łaciny, a zwłaszcza z niebieskim tomikiem zatytułowanym The Thought of Cicero. Esej Ayera
wydał mi się dziecinnie niedojrzały i trywialny, oparty na prostackim materializmie i nienawiści do Boga. Był to
filozoficzny paszkwil napisany przez niepoprawnego besserwissera, którego celem było ośmieszenie metafizyki.
Obstawanie Ayera przy tezie, że wyłącznie obserwacja lub eksperyment mogą nadać znaczenie wypowiedzi lub
zweryfikować twierdzenie, było stanowiskiem lojalnego niewolnika prawdy poznawanej za pomocą zmysłów.
Miało też cechy samozaprzeczenia: „twierdzenie pozytywizmu logicznego, że prawda jest tym, co jest
weryfikowalne (empirycznie lub logicznie), nie jest weryfikowalne ani empirycznie, ani logicznie”4.
1
A. Czechow, Wiśniowy sad, przeł. Cz. Jastrzębiec-Kozłowski, w: Wybór dramatów, Wrocław 1979, s. 743.
E. Renan, L'Avenir de la science, Paris 1890, s. V.
3
P. Johnson, The Quest for God. A Personal Pilgrimage, London 19%, s. 21.
4
H. Putnam, Reason, Truth and History, Cambridge, Mass. 1981, s. 106.
2
W swej zapalczywości Ayer zignorował nawet najnowsze odkrycia współczesnej mu nauki. A właśnie w
tym czasie, po okresie długiej zależności od zmysłów, nauka zaczęła gromadzić dowody ich niewystarczalności.
Naukowcy musieli na nowo postawić sobie szereg pytań i podać w wątpliwość oczywiste do niedawna twierdzenie,
że ich zadaniem jest opisywanie obiektywnej rzeczywistości.
Od 1901 roku Einstein był pracownikiem technicznym w szwajcarskim urzędzie patentowym — geniuszem
w trybach dyscyplinującej machiny państwowej. Wcześniej został wydalony ze szkoły za dawanie złego
przykładu kolegom i z uniwersytetu za arogancję wobec wykładowców. Profesorska zawiść przekreśliła jego
karierę akademicką i pogrzebała w niepamięci. W 1905 roku wydostał się na powierzchnię niczym górnik z
kopalni i zdetonował straszliwy ładunek.
Przedstawił teoretyczne wyjaśnienie eksperymentalnego paradoksu: prędkość światła, mierzona względem
poruszających się przedmiotów, zdawała się nigdy nie zmieniać, niezależnie od prędkości, z jaką poruszało się jego
źródło. Jeśli prędkość światła jest stała, rozumował Einstein, wobec tego czas i przestrzeń muszą być od niej
zależne. W przypadku prędkości bliskich prędkości światła czas musi biec wolniej, a odległość się skracać.
Powszechne przeświadczenie, że czas i przestrzeń mają charakter absolutny, wynika stąd, że w porównaniu ze
światłem nigdy nie poruszamy się z dużą szybkością. Einstein od dziecka był entuzjastą kolei, a swą teorię
względności lubił objaśniać za pomocą analogii z pociągami. Najbardziej obrazowym przykładem, jakim się posługiwał, był jednak paradoks bliźniąt, wymyślony w odpowiedzi na pytanie z sali podczas jednego z
publicznych wykładów: w myśl teorii Einsteina bliźniak, którego wysłano by w superszybką podróż, powróciłby do
domu młodszy od swojego brata. We wszechświecie Einsteina wszystkie pozory mylą. Masa i energia są
wzajemnie wymienne. Proste równoległe przecinają się. Zdroworozsądkowe postrzeżenia znikają, jak gdyby
zapadły się w norze Królika z Krainy Czarów.
Teoria względności podkopała zaufanie do tradycyjnych pewników, ale sama w sobie nie obaliła pojęcia
prawdy. Dzieło Einsteina zaszokowało świat swym nowatorstwem, ale było zwiastunem burzy dopiero
nadchodzącej: względność, jak mawiał Einstein, „czekała jeszcze na odkrycie”. W 1902 roku Henri Poincaré
opublikował pracę La Science et l'hypothése, w której podważył podstawowe założenie metody naukowej, a
mianowicie związek między hipotezą i dowodem. Do rezultatu eksperymentu — stwierdził — można
dopasować dowolną liczbę hipotez. Wybory dokonywane przez naukowców są w tym zakresie czysto konwencjonalne. Wśród przykładów, które poddał analizie, były prawa Newtona i tradycyjne pojęcia czasu i przestrzeni: a
więc całe to dziedzictwo, które zakwestionowała teoria Einsteina. Praca Poincarégo jest oknem na świat nauki,
którego przedstawiciele łamią sobie głowy nad bałamutnymi wynikami i gubią się w sprzecznościach — na
laboratorium przemienione machnięciem różdżki ucznia czarnoksiężnika. Pomaga ona zrozumieć, dlaczego taki
mechant jak Einstein mógł zostać zaakceptowany w tym konkretnym momencie dziejów1. Wszelako bezpośrednie
przesłanie Poincarégo było jeszcze bardziej radykalne: przedstawił on argumenty przemawiające za wątpieniem we
wszystkie twierdzenia, które wcześniej uważano za możliwe do udowodnienia. Jego sceptycyzm był rezultatem
rozważań nad geometriami nieeuklidesowymi, a warto przypomnieć, że ten rodzaj geometrii, który kojarzy się z
odkryciami Euklidesa, zawsze stanowił ważną inspirację dla poszukiwaczy prawdy (zob. s. 113-114). Poincaré
zdawał się wątpić w realność liczb, traktując je jako konwencjonalny sposób porządkowania naszych postrzeżeń. Z
równą pogardą odnosił się do matematyki i logiki, które uważał za systemy niezdolne do odkrywania prawdy, a
których stosowanie było, jego zdaniem, podyktowane jedynie wygodą.
Za życia Poincaré nie doczekał się uznania. Bertrand Russell, który w tym okresie uznał nauki
przyrodnicze i matematykę za podstawę swojej własnej filozofii, wytknął formalne błędy w jego rozumowaniu.
Jednak z upływem czasu „konwencjonalizm” stawał się coraz bardziej pomocny w wyjaśnianiu gwałtownych rewolucji w myśleniu naukowym. W latach 1911-1913 badania struktury atomów ujawniły, że elektrony krążące
wokół jądra przemieszczają się między jego orbitami w sposób całkowicie przypadkowy. Odkrycia, będące
następstwem prób zaobserwowania nieuchwytnych cząstek, z których składają się atomy, zostały uogólnione w
nowej teorii zwanej mechaniką kwantową. Opierała się ona na paradoksie — teorii Nielsa Bohra dotyczącej
sprzecznych własności światła, które można rozpatrywać jako fale lub cząsteczki.
W połowie trzeciej dekady naszego stulecia nie można było ignorować kolejnych wzajemnie sprzecznych
odkryć: w charakterystyce ruchu cząstek elementarnych ich położenie zdawało się nie do pogodzenia z ich
pędem. Inaczej mówiąc, poruszały się one z inną niż dająca się zmierzyć prędkością oraz pojawiały w
miejscach, w których nie miały prawa się znajdować. Wspólnym wysiłkiem Bohr i Werner Heisenberg ujęli owe
niezgodne wartości w zasadę zwaną dziś zasadą nieoznaczoności lub zasadą niepewności. Ich dyskusja wywołała
prawdziwą rewolucję epistemologiczną. Naukowcy, którzy wzięli w niej udział, uświadomili sobie, że świat
„dużych przedmiotów” tworzy kontinuum ze światem cząstek elementarnych i że oba światy są częścią tej samej
natury. Eksperymenty w obu sferach są skażone przez podobne ograniczenia. Obserwator jest częścią każdego
doświadczenia, i nie istnieje taki poziom obserwacji, na którym jego odkrycia można by uznać za obiektywne.
Zasada nieoznaczoności stawiała naukowców w sytuacji dawnych alchemików, którzy, dokonując
skomplikowanych, „wieloetapowych” destylacji pod zmiennym wpływem gwiazd, nigdy nie byli w stanie powtórzyć
warunków doświadczenia i przewidzieć jego rezultatu.
Miało to ogromne znaczenie, gdyż dla przedstawicieli większości dyscyplin wiedzy nauki przyrodnicze
stanowiły miarę obiektywizmu. Historycy, antropologowie, socjologowie, językoznawcy i nawet niektórzy
badacze literatury zaczęli nazywać siebie naukowcami, wyrażając w ten sposób intencję uwolnienia się od
ograniczeń, które wiążą się ze statusem przedmiotu doświadczenia. Okazało się jednak, że z naukowcami, w
ścisłym znaczeniu tego terminu, łączy ich coś przeciwnego niż oczekiwali: wszyscy oni byli uwikłani w swoje
odkrycia. Raz spadłszy w śmietnik zalegający dno klatki, nauka nigdy już nie zdołała wspiąć się z powrotem
na swą empirejską grzędę. Kolejne próby wydawały się jedynie powiększać przepaść między podmiotem i
przedmiotem. W 1960 roku, w jednej z najwybitniejszych prac, jakie kiedykolwiek filozof napisał na temat nauki,
Thomas Kuhn stwierdził, że rewolucje naukowe są w swej istocie „przesunięciami paradygmatu”, czyli zmianami
sposobu postrzegania świata oraz języka, w którym jest on opisywany. Kuhn jednak odrzucał wniosek, który
powszechnie stąd wyciągano, a mianowicie, że odkrycia nauki nie zależą od obiektywnych faktów, lecz od
perspektywy przyjętej przez badacza.
Niepewność zyskała nową jakość, kiedy w 1963 roku została sformułowana teoria chaosu. Kontekst
wydawał się niegroźny: długoterminowe prognozy pogody okazały się niewiarygodne z powodu
nieprzewidywalnych konsekwencji przypadkowych zdarzeń. Słynne „machnięcie motylego skrzydła”, które miało
być odpowiedzialne za niszczycielskie cyklony na terenach oddalonych o tysiące kilometrów, stało się symbolem
niesystemowych zdarzeń, które zakłócają funkcjonowanie każdego systemu. Udowodniono eksperymentalnie, że
nawet ruch wahadła i działanie grawitacji — będące od czasów Newtona probierzami tradycyjnej nauki, szukającej
porządku we wszechświecie — podlegają chaotycznym zniekształceniom1. Powstanie teorii chaosu nie powinno
było zaszkodzić pojęciu prawdy, gdyż wbrew pozorom nie usuwała ona porządku ze świata, a jedynie czyniła go
czymś niewyobrażalnie, wręcz cudownie złożonym. Wszelako w połączeniu z wszystkimi innymi atakami na
pewniki, które przypuszczono w tym czasie w nauce, filozofii i sztuce, potwierdzała ona, że do spisku należała
także natura: chaotyczny wszechświat był odpowiednikiem sztuki bez znaczenia i myśli bez prawdy.
Kiedy logika umiera: efekt Gödla
Nawet po sformułowaniu zasady nieoznaczoności wciąż istniała możliwość odnalezienia drogi między
pułapkami wykopanymi na cmentarzu pewności. Przynajmniej matematyka i logika wydawały się odporne na
ekspansję świata kwantowej nieprzewidywalności. Pogląd, że te dwa systemy są ze sobą tożsame, a w każdym razie
porównywalne, był w tych czasach wielką pociechą. Niektórzy filozofowie i matematycy chcieli to udowodnić:
rozwinąć teorię Fregego (zob. s. 131-132), opracowując system, w którym kilka logicznych aksjomatów wystarczy
do wykazania prawdziwości całej matematyki i całej reszty logiki. Bertrand Russell głosił wręcz, że zdołał tego
dokonać — przynajmniej w odniesieniu do arytmetyki, jeśli nie całej matematyki — w obszernej pracy napisanej
wspólnie ze swoim dawnym nauczycielem, Alfredem Nortonem Whiteheadem, a zatytułowanej Principia
Mathematica (1910-1913). Na pozór było to dzieło o marmurowej doskonałości.
Principia Mathematica kończyły się wyzwaniem: jeśli ktoś nadal wątpi w fundamentalną tożsamość
matematyki i logiki, „niech pokaże, gdzie jedna się kończy, a druga zaczyna”. Obszerność tego dzieła, złożoność
rachunku i ścisłość rozumowania czyniły strukturę systemu Russella i Whiteheada odporną na każdy atak. A
jednak w 1931 roku wyzwanie zostało podjęte: bez większego wysiłku sprostał mu pewien dwudziestopięcioletni
chudy okularnik z Wiednia.
Kurt Gödel wierzył w matematykę, ale efekty jego pracy sprawiły, że podkopał tę wiarę w innych.
Akceptował on pogląd Kanta, że wiedza o liczbach jest wiedzą aprioryczną, ale w innych zasiał ziarno
zwątpienia. Był pewny — tak samo pewny jak Platon czy Pitagoras — że liczby rzeczywiście istnieją jako
obiektywne byty, ale przyszedł w sukurs tym, dla których były one kwestią czystej konwencji. Przekonał świat,
że wiedza o liczbach nie ma źródła w doświadczeniu — że nie jest rezultatem, dajmy na to, mierzenia czy
porównywania przedmiotów — ale zgromadził przesłanki sugerujące, że w ogóle nie jest to „wiedza”, a jedynie
hipoteza. Zakwestionował tradycyjny sposób pojmowania arytmetyki jako systemu rozumowania podobnego
lub identycznego z logiką, ale wbrew jego intencjom zainspirowało to filozofów matematyki do opracowania
nowej arytmetyki odrzucającej logikę, podobnie jak geometrie nieeuklidesowe odrzuciły tradycyjną fizykę.
Sądził, że prawdy matematyczne są „nienegocjowalne”, ale oddzielając je od logiki, stał się mimowolnie ojcem
chrzestnym tak zwanej matematyki „intuicjonistycznej”, której nie znosił. Matematyka intuicjonistyczna jest
1
J. Gleick, Chaos, przeł. P. Jaśkowski, Poznań 1996.
bliska stwierdzeniu, że każdy człowiek ma swą własną matematykę i że dowodzenie ma na celu jedynie
zaspokojenie potrzeb dowodzącego. „To, co pokłada ufność w rachunkach i liczeniu — powiada Platon — musi
być najlepszą częścią duszy”, a zajmowanie się liczbami „widocznie skłania duszę, żeby się samym rozumem
posługiwała, aby osiągnąć samą prawdę”1. Utrata tego zaufania i zaniedbywanie tej skłonności powoduje
niepowetowane szkody.
Bertrand Russell, który chyba nigdy nie wybaczył Gödlowi, że ten wytknął mu błąd, uważał Austriaka za
platonika, który „najwyraźniej wierzy, iż wieczyste «nie» złożone jest w niebiosach, gdzie cnotliwi logicy mają
nadzieję spotkać się po śmierci”2. Gödel zburzył misterną konstrukcję Russella i Whiteheada za pomocą niezwykle
prostych środków, które zarazem niesłychanie trudno było zastosować w praktyce. Posłużył się on jedną z
ulubionych metod Russella, a mianowicie zbudował metasystem umożliwiający przetestowanie pierwotnego
systemu. Jeśli chcemy udowodnić lub obalić twierdzenie, że proste równoległe nigdy się nie przecinają, nie
możemy uczynić tego w obrębie geometrii euklidesowej, gdyż twierdzenie to jest aksjomatem tego systemu; musimy
stworzyć jakiś inny, szerszy system. Tak jak Russell i Whitehead opracowali rachunek, w którym logika i
matematyka mogą być wyrażane za pomocą tej samej formy notacji, tak też Gödel opracował metarachunek, w
którym ich twierdzenia mogły zostać zweryfikowane poprzez przypisanie im wartości liczbowych, czyli tak zwaną
„arytmetyzację formuł”. Nie trzeba szczegółowo analizować argumentu Gödla (sam mam o nim zaledwie mgliste
pojęcie), aby uznać prawomocność jego konkluzji. Nie istnieje taki zbiór aksjomatów, który mógłby stanowić
kompletną podstawę arytmetyki (nawet jeśli przyjmiemy, że wszystkie one, jak przystało na aksjomaty, są
prawdziwe); są w arytmetyce twierdzenia, których prawdziwości arytmetyka nie jest w stanie udowodnić (nawet
jeśli przyjmiemy, że liczby rzeczywiście istnieją); brak procedur logicznych, które pozwoliłyby stwierdzić
prawdziwość lub fałszywość wszystkich twierdzeń arytmetycznych; prędzej lub później, zawsze uzyska się
sprzeczne wyniki. To samo zastrzeżenie stosuje się do wszystkich podobnych systemów formalnego rozumowania,
nie wyłączając logiki w rozumieniu Russella i Whiteheada i reszty tradycyjnej matematyki. Żaden formalny system
nie opisuje w zadowalający sposób samego siebie. Tak jak Bohr i Heisenberg zostawili naukę na mieliźnie
nieoznaczoności, tak też Gödel wyrzucił teraz na plażę matematykę i logikę3.
U podłoża twierdzenia Gödla leżało przekonanie zrozumiałe i akceptowalne dla ucznia szkoły średniej,
że aksjomatów nie da się dowieść w obrębie systemu, na którym są one oparte. Ostatecznie dlatego właśnie są
aksjomatami, a nie wnioskami. Następny etap rozumowania Gödla był mniej przewidywalny, ale równie zrozumiały: każdy system generuje problemy, których jego aksjomaty, nawet jeśli zostały dowiedzione, nie są w stanie
rozstrzygnąć. Wpływ twierdzenia Gödla na sposób, w jaki ludzie obecnie myślą, można porównać do wpływu
termitów na świadomość pasażerów statku uważanego wcześniej za niezatapialny: szok był nieunikniony. Jeżeli
matematyka i logika są dziurawe, to świat jest statkiem szaleńców4.
1
Platon, Państwo, przeł. W. Witwicki, t. 1, Warszawa 1990, s. 380.
The Autobiography of Bertrand Russell, t. 2, London 1968, s. 224.
3
D. Hofstadter, Gödel, Escher, Bach. An Eternal Golden Braid, Harmondsworth 1980, s. 19; por. E. Nagel i J.R. Newman, Gödel 's
Proof, New York 1958.
4
M. Kline, Mathematics. The Loss of Certainty, Oxford 1991.
2