Tom abstraktów: plik w formacie do pobrania

Transkrypt

Tom abstraktów: plik w formacie do pobrania
Konferencja Filozofii Nauki i Metod Formalnych w
Filozofii
Instytut Filozofii UJ
27-28.10.2016
Data Science - nowe wyzwanie dla filozofii nauki
Besler Gabriela
Uniwersytet Śląski
Data Science (dalej: DS) zajmuje się opracowaniem tzw. Big Data (BD), które są
rozumiane jako wielkie wolumeny różnorodnych, bezładnych danych, strumieniowo
napływających w czasie rzeczywistym, jakościowych i ilościowych (w tym obrazowych), dotyczących ludzkiego zachowania lub procesów zachodzących w przyrodzie,
zbieranych przez maszyny niejako „przy okazji”, bez zamierzenia ludzkiego. BD wymagają specjalnego oprzyrządowania, oprogramowania i wiedzy, by je błyskawicznie
opracować i z nich skorzystać w celach biznesowych, naukowych i społecznych.
Zadaniem DS jest zbierać, opracować i przetworzyć informacje zawarte w BD, powstające w wyniku powszechnej dostępności nowoczesnych technologii i urządzeń
do przekazu i przesyłu danych: Internet, telefony komórkowe, GPS itd. Czy w realizacji tego zadania posługujemy się jedną z tradycyjnych metod, dobrze opisanych
w literaturze metodologicznej? Wiele wskazuje na to, że mamy do czynienia z sytuacją konstruowania nowej metody. Nie jest to metoda statystyczna: mając dostęp
do danych dotyczących całej populacji nie korzysta się z tzw. próbki losowej. Metoda stosowana w DS jest przypadkiem indukcji, bo ogólne wnioski formułuje się na
podstawie zdarzeń jednostkowych, ale jest to zazwyczaj indukcja zupełna. Nie jest
to przypadek metody redukcyjnej, bo zebrane dane nie prowadzą nas do informacji
o tym, co było wcześniej (w sensie przyczynowym), ale służą prognozowaniu, wyciąganiu wniosków, a więc to (słaba) forma dedukcji. Pytaniem otwartym jest także
problem uzasadniania otrzymanych wyników: weryfikacja, konfirmacja i falsyfikacja
są nieadekwatne.
Ugruntowanie się metody DS może być zaczątkiem kolejnej zmiany paradygmatu
naukowości, opartego m.in. na tym, że maszynowe opracowanie BD pokazuje zależności i przypadki, których nawet umysły zespołu badaczy raczej by nigdy nie
odkryły.
L. Floridi: The Fourth Revolution: Oxford 2014.
V. Mayer-Schönberger, K. Cukier: Bid Data. Warszawa 2014.
M. Tabakov, J. Korczak, B. Franczyki: Big Data. „Informacja Ekonomiczna” 1(31)
2014.
2
O pewnych ontologicznych interpretacjach kwantowej teorii
pola
Bigaj Tomasz
Uniwersytet Warszawski
Kwantowa teoria pola jest najbardziej zaawansowaną teorią fundamentalnych
składników materii i ich wzajemnych oddziaływań. W ramach ogólnego matematycznego schematu kwantowej teorii pola rozwinięte zostały takie szczegółowe teorie podstawowych oddziaływań, jak elektrodynamika kwantowa (QED) w wypadku
oddziaływań elektromagnetycznych czy kwantowa chromodynamika (QCD) w wypadku oddziaływać silnych (jądrowych). Jednakże z filozoficznego punktu widzenia
wyzwaniem jest sformułowanie spójnej ontologicznej interpretacji kwantowej teorii
pola. W dyskusjach filozoficznych na ten temat dominują dwa nurty: interpretacja
cząstkowa i interpretacja polowa. Zgodnie z interpretacją cząstkową podstawowymi
obiektami opisywanymi przez kwantową teorię pola są cząstki - zarówno cząstki
materii, jak i cząstki przenoszące oddziaływania. W klasycznej interpretacji pola
fizyczne są reprezentowane przez ciągłe funkcje przypisujące wielkości fizyczne poszczególnym punktom czasoprzestrzeni. Jednakże w podejściu kwantowym pola są
poddane procedurze tzw. kwantyzacji, w wyniku której ulegają one „dyskretyzacji”.
Ta dyskretyzacja jest interpretowana jako przejaw cząsteczkowego charakteru pól
fizycznych.
Cząsteczkowa interpretacja kwantowej teorii pola natrafia jednak na szereg poważnych problemów pojęciowych. Istnieje szereg formalnych twierdzeń (tzw. no-go
theorems), które pokazują, że cechy zwykle przypisywane obiektom o charakterze
cząsteczkowym (głównie związane z ich zakładaną lokalizowalnością) prowadzą do
sprzeczności na gruncie relatywistycznej teorii kwantowej. Do tych twierdzeń należą
m.in. twierdzenia Malamenta, Hegerfeldta i Reeh-Schliedera, to ostatnie dowodzone
na gruncie algebraicznej kwantowej teorii pola. Inne argumenty przeciwko interpretacji cząsteczkowej opierają się na istnieniu tzw. efektu Unruh (kwanty Rindlera).
Ostatecznym ciosem zadanym interpretacji cząsteczkowej wydaje się twierdzenie Haaga, które pokazuje, że w teorii oddziałujących pól kwantowych istnieją reprezentacje w przestrzeniach Hilberta które są unitarnie nierównoważne representacjom
w przestrzeniach Focka (są to reprezentacje, które opierają się na stanach z dobrze
określonymi liczbami cząstek). Twierdzenie Haaga zdaje się sugerować, że w sytuacjach, w których następuje oddziaływanie pomiędzy kwantami (do takich sytuacji
należą typowe eksperymenty rozpraszania w fizyce wysokich energii), pojęcie liczby
cząstek przestaje mieć dobrze określony sens.
Do powyższych argumentów formalnych można dodać argumenty oparte na analizie
matematycznej procedury kwantyzacji pól. Jest ona oparta na technice wydzielania odrębnych modów wzbudzania pola, znanej z elementarnej analizy oscylatorów
harmonicznych. Jednakże można argumentować, że postulowane w wyniku tej procedury kwanty ekscytacji mają w istocie niewiele wspólnego z ontologicznie dobrze
określonymi obiektami fizycznymi. Reasumuąc, interpretacja cząsteczkowa wydaje
się nie do utrzymania. Nie oznacza to jednak, że konkurencyjna interpretacja polowa
jest pozbawiona problemów. W istocie pojęcie kwantowego pola jest na tyle odległe od intuicji klasycznych, że trudno przypuszczać, abyśmy dysponowali klarowną
3
ontologiczną interpretacją tego, czym są pola w teorii kwantowej. Sprawa interpretacji kwantowej teorii pola jest zatem nadal otwarta, a nowe interpretacje, oparte
na różnych metafizycznych pojęciach (tropów, zdarzeń itd.) pojawiają się regularnie
na łamach periodyków i w monografiach poświęconych filozofii fizyki.
Monadyczna teoria bytu
Biłat Andrzej
Politechnika Warszawska
Celem referatu jest prezentacja formalnej koncepcji bytu - obejmującej m.in. tezy
o istnieniu świata jako całości, świata realnego, świata idealnego i świata przyrody
- w której istotną rolę odgrywa monadyczna logika drugiego rzędu. Logika ta zostanie poddana najpierw ontologicznej interpretacji w duchu klasycznej, PlatońskoArystotelesowskiej koncepcji bytu, a następnie użyta jako podstawa i narzędzie jednolitej aksjomatyzacji zbioru niektórych założeń współczesnej matematyki (w tym
topologii) i ontologicznych zobowiązań nauk empirycznych (w tym kosmologii fizycznej).
Metodologia pozytywizmu krytycznego Hansa Vaihingera
Ciuciura Janusz
Uniwersytet Łódzki
Parmenides mówił „nie można pomyśleć tego, czego nie ma”; my stoimy na przeciwległym krańcu i mówimy: „co można pomyśleć, musi z pewnością być fikcją”. (F
Nietzsche, Wola mocy, aforyzm 276)
Główne zainteresowania filozoficzne Vaihingera ogniskowały się wokół nauki, z
której czerpał przykłady. Takie pojęcia jak atom, grawitacja, czy też siła, wykorzystuje się w określonym celu, dla potrzeby chwili. Pomagają one uprościć opis
naukowy, a w dalszej perspektywie wiodą do budowy lepszych, bardziej użytecznych
teorii.
Pojęcia, terminy, struktury, klasyfikacje, definicje, itp. wszystko to jest - zdaniem
Vaihingera - wytworem umysłu ludzkiego i jako takie nie znajduje realnego odbicia
w świecie rzeczy i zjawisk. Już same użyte w tym miejscu pojęcia: rzecz, zjawisko są
niczym innym jak świadomie stworzonymi fikcjami, które okazują się niezastąpione
w opisie świata, opisie badań naukowych, doznań religijnych, czy też w życiu codziennym. Vaihinger ukuł termin fikcja na określenie przekonań, o których wiemy,
że nie są prawdziwe, lecz okazują się z pewnych względów, np. naukowych, korzystne.
Granica między prawdą a fałszem jest płynna, albowiem wszystko co postrzegamy
ma charakter subiektywny: Subjektives ist fiktiv; Fiktives ist falsch; Falsches ist Irrtum - pisał Vaihinger w Die Philosophie des Als Ob (Rozdz. XXV, s. 193). Ambicją
4
nauki nie jest więc dotarcie do tzw. istoty rzeczy, lecz uczynienie z fikcji coraz bardziej użytecznego narzędzia, służącego do badania świata obiektywnego oraz do działania. Dlatego też, choćby dla celów praktycznych, zmuszeni jesteśmy tworzyć tzw.
prawdy częściowe, utożsamiane po prostu z fikcjami. Posługując się nimi, możemy
mieć iluzoryczne przeświadczenie o rozumieniu, czym jest dany przedmiot poznania,
jakie ma własności oraz w jakiej jest relacji (lub jakich pozostaje relacjach) z innymi
przedmiotami. Tak bywa np. z niektórymi koncepcjami filozoficznymi, w których
operuje się „w sposób bezkrytyczny” takimi pojęciami jak: substancja, kategoria,
gatunek, rodzaj, idea, itp. Vaihinger określił ten rodzaj filozofii mianem „filozofii dogmatycznej”.
Celem referatu będzie przedstawienie filozoficznych pomysłów Hansa Vainhingera ze
szczególnym uwzględnieniem ich konsekwencji metodologicznych.
Protofizyka a sens absolutnego tła
Czerniawski Jan
Uniwersytet Jagielloński
Ogólną teorię względności zazwyczaj interpretuje się jako teorię bez (absolutnego) tła. Prowadzi to jednak w fizyce do problemu określenia gęstości energii pola
grawitacyjnego, a w filozofii do problemu „dziury”, dla którego nie ma w ramach
tej interpretacji zadowalającego rozwiązania. W związku z pierwszym problemem
proponowano bimetryczną interpretację OTW, w ramach której, oprócz fizycznej,
dynamicznej metryki czasoprzestrzeni, przypisano jej absolutną metrykę tła, której
rolę miała grać płaska metryka Minkowskiego. Z drugiej strony, takie rozwiązanie
pozwalałoby też uniknąć problemu „dziury”, który w teoriach z absolutnym tłem
nie występuje.
Przeciwko temu rozwiązaniu argumentowano wskazując, że podczas gdy metryka tła
ma dobrze określony sens operacyjny, to sens metryki tła, który pozwoliłby jakoś odnieść jądo wyników pomiarów, jest niejasny. Wątpliwości budzi też samo odróżnienie
absolutnych i dynamicznych elementów struktury modelu teorii, gdyż te pierwsze
definiuje się jako niezmienniki symetrii teorii, a symetrie teorii jako te dyfeomorfizmy, które zachowują jej elementy absolutne. Oba te zastrzeżenia pozwala oddalić
protofizyka, wprowadzając pewne uogólnienie pojęcia sensu operacyjnego, mające
zastosowanie również do elementów absolutnego tła. Przypisanie mu takiego sensu
pozwala też wyjść poza zarysowane błędne koło w określeniu absolutnych elementów teorii. Zarazem jednak dostarcza wskazówki do korekty absolutnej geometrii tła,
którą nie może już być geometria Minkowskiego.
5
Filozoficzne implikacje Davida Hilberta twierdzenia o
niezmiennikach
Grygiel Wojciech
Uniwersytet Papieski im. Jana Pawła II w Krakowie
Wszystkie dobrze potwierdzone współczesne teorie fizyczne można przedstawić
jako teorie niezmienników grup pewnych przekształceń. Przykładowo, ogólna teoria
względności jest teorią niezmienników grup dyfeomorfizmów, mechanika kwantowa
jest teorią grup permutacji natomiast kwantowa teoria pola jest teorią grup niezmienników przekształceń lokalnych symetrii cechowania. Określone przy pomocy
teorii grup pojęcie symetrii jest więc kluczowe dla struktury matematycznego formalizmu tych teorii. Okazuje się również, że teoriogrupowe pojęcie symetrii posiada
swoje naturalne uogólnienie w postaci grupoidów. W oparciu o te obserwacje warto
bliżej przyjrzeć sie pojęciu niezmienniczości i zbadać, w jakim zakresie niezmienniki
poszczególnych teorii kwalikują sie jako możliwe wyznaczniki ontologii rzeczywistości fizycznej jako elementu struktury teorii. W tej kwestii pouczające się wydaje
twierdzenie o niezmiennikach sformułowane przez Davida Hilberta dla transformacjiliniowych. Orzeka ono, że jeżeli grupa G jest grupą macierzy linowych przekształceń
układów współrzędnych, to znaczy G = SLn (C), to można wskazać jedynie skończoną liczbę generatorów niezmienników, za pomocą których wygenerować można
wszystkie pozostałe. W proponowanym referacie dokonana zostanie wstępna analiza filozoficznych aspektów tego twierdzenia, a w szczególności jak implikowana
przez niego skończoność liczby generatorów pozostaje w relacji do klasycznych pojęć filozoficznych, takich jak substancja, istnienie, rzeczywistość, konieczność oraz
Absolut. W takiej perspektywie badawczej rysuje się unikalna szansa na konceptualne zbliżenie abstrakcyjnego języka współczesnej fizyki oraz klasycznego dyskursu
filozoficznego.
Metody ontologii formalnej: topologia jako narzędzie
ontologii. Tak czy nie?
Kaczmarek Janusz
Uniwersytet Łódzki
Na konferencji odniosę się do uznanych już metod formalnych tj. do metody
parafraz Ajdukiewicza i hermeneutyki logicznej Wolniewicza. Podane zostaną stosowne przykłady ilustrujące obie metody. Rozważę również interesujące propozycje
Husserla nt. idealizacji, generalizacji i innych operacji, które twórca fenomenologii
omawia m. in. w swych Ideach I. Podejmę tu problem, czy operacje te mają charakter formalny.
Głównym problemem referatu będzie jednak kwestia: czy narzędzia topologiczne
mogą być wykorzystane w definiowaniu, modelowaniu, podstawowych pojęć ontologii: substancja, własności, czas, przestrzeń, gatunek, rodzaj, istota itp. Zajmę się
jednym tylko problemem: substancją w sensie Leibniza. Leibniz określa ją (definiuje)
przez poniższe tezy:
6
1. Substancja jest mnogością (agregatem) monad.
2. Substancja posiada monadę dominującą.
3. Monada dominująca zapewnia jedność substancji.
Zaproponuję, by monadę modelować jako topologię i zdefiniuję substancję, jako agregat (zbiór) topologii odpowiednio uporządkowanych. Okazuje się, że tak zdefiniowana substancja jest systemem topologii (monad) i można ją analizować z punktu
widzenia teorii systemów zaproponowanej m. in. przez M. Bunge, J. Bocheńskiego
czy R. Ingardena. System natomiast - przypomnijmy - jest jednym z pojęć, przez
które ujmuje się przedmiot w sensie ontologicznym.
Spór o ontologiczny status matematyki. Nowe otwarcie
Kałuszyńska Elżbieta
Uniwersytet Warmińsko-Mazurski
Pytanie o odniesienie przedmiotowe matematyki ciągle pozostaje bez jednoznacznej, powszechnie akceptowanej odpowiedzi. Najczęściej wyróżnia się dwa przeciwstawne stanowiska:
1. rzeczywistość matematyczna istnieje obiektywnie - Roger Penrose, który opowiada się za takim rozwiązaniem, mówi o platońskim świecie idei matematycznych;
2. rzeczywistość matematyczna jest konstruowana przez matematyków.
Obie propozycje stoją w obliczu zasadniczych trudności: w pierwszym przypadku
zmierzyć się trzeba z problemem prawdziwości matematycznych twierdzeń, w drugim
- z problemem niesprzeczności. Dla obu stanowisk wyzwanie stanowi ta niedorzeczna
skuteczność matematyki. Trudno wyjaśnić, czemu świat idei albo konstrukcje matematyków tak świetnie pasują do empirycznej rzeczywistości, areny naszych działań.
Burzliwe dyskusje, jakie tocząsię obecnie w fizyce, wzbogaciły jeszcze paletę stanowisk. Na przykład Max Tegmark twierdzi, iż istnienie matematyczne jest równoważne istnieniu fizycznemu. Oznacza to, że wszystkie struktury istniejące w matematyce istnieją także fizycznie, [a] nasza zewnętrzna rzeczywistość jest strukturą
matematyczną. Argumenty Tegmaraka nie są zbyt przekonujące (jednym z nich jest
koncepcja precyzyjnego dostrojenia), toteż ma niewielu zwolenników. Znaczące natomiast jest „odkrycie” i wykorzystywanie twierdzenia Noether wiążącego niezmienniczość twierdzeń ze względu na ciągłą transformację symetrii czasoprzestrzennych
(przesunięcie w czasie, przestrzeni, obroty) z prawami zachowania (energii, pędu,
momentu pędu). Jest to potężne narzędzie. Pozwala z innej perspektywy spojrzeć
na „równania, które są mądrzejsze od tych, którzy je napisali”.
7
Charakterystyka źródeł instrumentalistycznej koncepcji
wiedzy naukowej
Kawalec Paweł
Katolicki Uniwersytet Lubelski
Powszechnie znany jest udział G. W. Leibniza w powołaniu Towarzystwa Nauk
w Berlinie w 1700 r., którego został przewodniczącym. Mniej znane późniejsze fakty,
choć wskazujące na większy zakres jego oddziaływania, dotyczą zainspirowania cesarza oraz cara do powołania odnośnych towarzystw nauk w Wiedniu oraz Sankt
Petersburgu. Leibniz był także aktywnym członkiem dwóch najważniejszych ówczesnych towarzystw w Londynie i Paryżu. Przy okazji spotkań z licznymi decydentami
ówczesnego świata, kolejnymi cesarzami, królami europejskimi, carem, książętami
itp. niemal każdorazowo opracowywał zamaszyste plany reform różnych obszarów
ówczesnego życia, w których niepoślednią rolę miał odgrywać postęp nauk przyrodniczych, a także oświecenie duchowe, zwłaszcza moralne, pod wpływem nauk
humanistycznych. Ponadto, jego wielorakie plany postępu miała spajać idea „nauki
uniwersalnej” jako spójnego systemu wiedzy naukowej, której podstaw miała dostarczyć scientia generalis.
Pomimo tego, wpływ Leibniza na kształtowanie europejskiej polityki naukowej jest
tematem, który nie wzbudził dotąd większego zainteresowania w badaniach. Niniejsze studium jest przyczynkiem do takiego studium. Koncentruje się ono na, jak
sądzę, kluczowym elemencie poglądów Leibniza na naukę, który można określić jako
instrumentalizm epistemiczny. W charakterystyce tej koncepcji zwrócę uwagę szczególnie na te jej elementy, które kontrastują z wcześniejszą, renesansową koncepcją
F. Bacona, którą Leibniz się inspirował, a także te, które korespondują ze współczesnym instrumentalizmem w teorii nauki, który jest składową szerszego zjawiska,
określanego jako ekonomizacja nauki. Ta ostatnia ukazana zostanie jako nowy fenomen na szerszym tle przemian, jakie nastąpiły po tzw. trzech falach w teorii nauki.
Za realistyczną interpretacją filozofii nauki Pierre’a Duhema
Kotowski Mateusz
Politechnika Wrocławska
Co najmniej od czasów prac Karla Poppera (i w dużej mierze pod ich wpływem)
filozofowie nauki zwykli upatrywać w stanowisku Pierre’a Duhema wzorcowego przykładu instrumentalizmu (czy konwencjonalizmu rozumianego jako forma antyrealizmu) w stosunku do nauki, dla którego jej celem jest nie dążenie do prawdy, lecz
tworzenie empirycznie skutecznych instrumentów predykcji. Niewiele w tym zaszufladkowaniu poglądów francuskiego klasyka zmieniły pojawiające się od kilku dekad
głosy wskazujące na co najmniej problematyczność takiego ich odczytywania. Jest
tak po części dlatego, że stereotyp antyrealistycznej orientacji Duhema utrwalił się
na tyle mocno, że głosom takim trudno jest przebić się do powszechnego dyskursu,
po części zaś dlatego, że częściej wskazują raczej na niejednoznaczność poglądów Duhema - który miałby oferować nam instrumentalizm przyprawiony jedynie szczyptą
8
realizmu czy opowiadać się za czysto motywacyjną rolą przekonań realistycznych w
praktyce naukowej - niż skłonne mu są przypisać jednoznacznie realistyczną orientację. Tymczasem zarówno jedne, jak i (choć w mniejszym stopniu) drugie interpretacje zdają się nie wytrzymywać konfrontacji z nieuprzedzoną lekturą pism Duhema,
które zaświadczają o jego wierności dla wartości tradycyjnie wiązanych z nauką, w
tym przede wszystkim prawdy jako jej celu, i tym samym pozwalają upatrywać w
jego stanowisku formy realizmu naukowego. Tym bardziej, jeśli odczytywać je przez
pryzmat współczesnego rozumienia tego stanowiska, które dalekie jest typowych
podręcznikowych definicji (określających je jako pogląd, zgodnie z którym teorie naukowe oferują nam w klasycznym sensie prawdziwe opisy zarówno obserwowalnych,
jak nieobserwowalnych części niezależnego od umysłu świata). Moje wystąpienie zamierzone jest jako głos za uznaniem realistycznej interpretacji stanowiska Duhema
zarazem jako oddającej mu sprawiedliwość, jak i zgodnej z współczesnymi intuicjami
stojących za realizmem naukowym. Argumentując za tą interpretacją (i przeciwko
konkurencyjnym), odwołam się przede wszystkim do użytku, jaki Duhem w swoich
pracach czynił z pojęcia klasyfikacji naturalnej oraz tego rodzaju argumentacji za
przypisywaniem nauce możliwości poznawczych, którą z czasem przyjęło się określać
argumentacją z „sukcesu nauki” czy „z braku cudów”.
Czy klasyczna metoda statystycznego testowania hipotez
realizuje cel dążenia do prawdy?
Kubiak Adam Paweł, Kawalec Paweł, Lipski Piotr
Katolicki Uniwersytet Lubelski
Wielu filozofów zgodziłoby się, że racjonalność naukowo uzasadnionych przekonań/przyjętych tez/opiera się na tym, że metoda naukowa, jako sposób nabywania
przekonań/przyjmowania tez, jest wiarygodnym środkiem dochodzenia do prawdy w sensie skutecznego (w akceptowalnym stopniu) przyczyniania się do zwiększania
udziału prawdziwych i zmniejszania udziału fałszywych pośród wszystkich przyjętych tez/posiadanych przekonań. Uważa się, że metody testowania hipotez - testy
istotności - należące do częstościowego paradygmatu statystycznego, którego jednym z głównych twórców i propagatorów był Jerzy Neyman, wskazują jaka jest ich
skuteczność w dochodzeniu do prawdy. Ta wyraża się w z góry określonych spodziewanych wartościach dwóch rodzajów błędów, które można traktować jako podstawę
szacowania częstości ich popełniania przy wielokrotnym używaniu metody.
Jednym z problemów dotyczących powyższej własności jest fakt, że wspomniana
skuteczność testu odnosi się do wyidealizowanej, kontrfaktycznej klasy nieskończonej
liczby obserwacji poczynionych w identyczny sposób. Ponadto, gdyby wspomniana
wiarygodność testu dotyczyła jego aplikacji w różnych kontekstach, czy nie wymagałoby to przyjęcia, że poszczególne badania są od siebie niezależne? Następny kłopot
sprawia fakt, że w różnych kontekstach korzystania z tego samego testu może być
wybierany inny poziom błędu i zależy on od praktycznych preferencji badacza. Dodatkowo, metoda nie przewiduje zbieżności do ideału przyjmowania jedynie prawdziwych tez wraz ze wzrostem liczby jej zastosowań. Wydaje się również nie wskazywać
w jaki sposób wyniki już uzyskane w ramach danego kontekstu badawczego mogą
9
być brane pod uwagę przy okazji kolejnych badań na ten sam temat. W końcu, próby
ominięcia części powyższych problemów poprzez odwołanie do twierdzeń statystyki
matematycznej wydają się prowadzić bądź do błędu regresu w nieskończoność, bądź
błędu kołowacizny.
Niezależnie od powyższych problemów, okazuje się, że specyfika koncepcji jednego z
dwóch rodzajów błędów (beta) w rzeczywistości uniemożliwia traktowanie go jako
podstawy szacowania przewidywanej częstości błędów; pozwala szacować częstość
niewłaściwych decyzji, co, w świetle celu dochodzenia do prawdy, nie jest jednak tym
samym. Referat będzie polegał, po pierwsze, na podjęciu próby ominięcia problemów
wskazanych w drugim akapicie, poprzez argumentację nie wykraczającą poza ramy
ogólnie rozumianego paradygmatu częstościowego. Drugim celem referatu będzie
dyskusja nad ograniczeniami metody wynikającymi z problemu dotyczącego błędu
beta. W wyniku tego zostanie przeprowadzona próba obrony omawianej metody
jako w specyficzny sposób realizującej cel doprowadzania nas do prawdya zarazem
wskazane niekorzystne aspekty traktowania tej metody jako standardu w badaniach
naukowych.
Problemy z pojęciem energii w ogólnej teorii względności
Luc Joanna
Uniwersytet Jagielloński
Przy przechodzeniu od klasycznych teorii fizycznych do bardziej zaawansowanych
(relatywistycznych bądź kwantowych) mamy do czynienia z głębokimi zmianami
podstawowych pojęć fizycznych, często na tyle znacznymi, że można mieć wątpliwości, czy w ogóle stare pojęcia są w nowych teoriach wciąż obecne. W niniejszym
referacie zostanie rozważony jeden z przypadków takiej zmiany, mianowicie charakterystyka energii w ogólnej teorii względności.
Jedną z najważniejszych cech energii w fizyce klasycznej stanowi fakt, iż jest ona
wielkością zachowaną. W OTW pojawia się odpowiednik prawa zachowania energii
dla materii, jednak z pewnych technicznych powodów nie może być on uznany za
właściwą zasadę zachowania energii. Aby uzyskać tę ostatnią, należałoby założyć istnienie jakiejś dodatkowej składowej energii całkowitej. Istnieje naturalny kandydat
na taką składową, mianowicie energia samej czasoprzestrzeni. Okazuje się jednak, że
jej definicja nie jest jednoznaczna, o ile nie wprowadzimy do teorii pewnych dodatkowych struktur (np. wyróżnionego układu odniesienia). W związku z tym niektórzy
autorzy stawiają tezę, że w OTW w ogóle nie istnieje taka wielkość jak energia.
Aby móc postawić taką tezę, należy najpierw dokładnie określić, czym energia jest.
Pojęcie to występuje w języku potocznym i w fizyce klasycznej; ograniczę się tutaj
do intuicji stojących za tym drugim. Dobre ich podsumowanie daje praca (Bächtold
i Guedj 2014). Jedną z podanych tam charakterystyk energii stanowi jej zachowanie
(tak więc, o ile jakaś wielkość nie jest zachowana, nie można jej nazwać energią);
inną - jej dwojaka relacyjność: po pierwsze nie jest ona samodzielnym bytem, tylko
przynależy zawsze do jakiegoś obiektu, a po drugie, co dla nas ważniejsze, zawsze
jest określona w odniesieniu do jakiegoś obiektu innego niż ten, o którego energii
10
mówimy. Zależność ta zostanie w referacie przedstawiona na przykładzie energii kinetycznej i potencjalnej (rozumianych klasycznie).
Biorąc cechę relacyjności za dobrą monetę, należy wyciągnąć wniosek, że w przypadku braku odniesienia jakiegoś obiektu do jakichkolwiek innych obiektów nie może
być mowy o energii. To spostrzeżenie stanowi sedno mojego pomysłu na wyjaśnienie
problemu energii w OTW (nie odwołującego się do żadnych specyficznych własności
tej teorii). Zgodnie z nim obecność tej wielkości lub jej brak zależeć będzie od szczegółów modelu - w szczególności, jeśli jakiś obiekt nie jest do niczego odniesiony, to
nie należy się spodziewać, że ma on energię.
Jak pokazują analizy pracy (Lehmkuhl 2011) w przypadku tej części energii całkowitej w OTW, która jest związana z materią, można znaleźć ową relacyjność (w
tym przypadku chodzi o relację do metryk), i to na różnych poziomach. Natomiast o
słuszności mojej hipotezy dla części energii całkowitej związanej z czasoprzestrzenią
może świadczyć fakt, że udaje się ją zdefiniować jednoznacznie tylko przy założeniu
pewnych dodatkowych struktur.
Strukturalizm w filozofii czasoprzestrzeni z perspektywy
metaontologii i metametafizyki
Luty Damian
Uniwersytet im. Adama Mickiewicza w Poznaniu
Pierwszym celem referatu jest przedstawienie stanowisk dotyczących czasoprzestrzeni formułowanych z perspektywy ontologicznie i metafizycznie zorientowanych
wersji realizmu strukturalnego. Pokrótce omówione w tym kontekście zostaną poglądy na czasoprzestrzeń związane ze stanowiskami ontycznego realizmu strukturalnego (OSR, zaproponowane przez J. Ladymana) i umiarkowanego ontycznego
realizmu strukturalnego (MOSR, zaproponowane przez M. Esfelda i V. Lama). Nie
analizuję poglądów innych autorów, takich jak np. M. Dorato czy E. Slowika, którzy
również posiadają pewne poglądy strukturalistyczne.
Drugim celem jest wskazanie zasadniczym kłopotów związanych z tymi stanowiskami
na gruncie filozofii czasoprzestrzeni: i) autonomia względem (wyrafinowanego) substancjalizmu i relacjonizmu ii) adekwatność dyspozycyjnego ujęcia przyczynowości i
ogólnie adekwatność przyjmowania istnienia obiektywnych modalności iii) przyjmowanie symetrii jako jednego z dwóch (obok, realistycznie zinterpretowanych, praw
fizyki) aspektów „fundamentalnej struktury świata”.
Trzecim celem jest (skromne) uzasadnienie tezy, że zasadniczym powodem kłopotów
strukturalisty czasoprzestrzennego (w ramach OSR oraz MOSR) jest niedostateczne
rozróżnienie metametafizycznego od metaontologicznego argumentowania na rzecz
określonych twierdzeń w OSR/MOSR. Zakładam, że metaontologią jest przyjęcie,
że ontologię danej teorii określamy poprzez analizę semantyki kwantyfikatorów egzystencjalnych w ramach rekonstrukcji danej teorii w logice pierwszego rzędu, a metametafizyką jest ustalenie, jakimi kategoriami, którymi posługujemy się stawiając
tezy metafizyczne, również w interpretacyjnym kontekście względem teorii naukowych (kategorie obiektów, relacji, własności, ich sposobów istnienia). Teraz można
oddać centralne tezy OSR i MOSR jako zespoły twierdzeń:
11
1. (OSR)
i) Fundamentalnie, istnieją tylko struktury (wg. Frencha „ujawniające się” poprzez symetrie i prawa fizyczne)
ii) Obiekty (np. punkty czasoprzestrzenne) nie posiadają jakiejkolwiek indywidualności (mocnej bądź słabej)
2. (MOSR)
a) Fundamentalnie, istnieją zarazem struktury jak i obiekty, te drugie są zależne od tych pierwszych
b) Obiekty ulegają indywiduacji w kontekście struktury; obiektom przysługuje
obiektywna modalność
Uzasadniając swoją tezę, będę starał się pokazać, że ze względu na odmienny status
dwóch twierdzeń z każdej pary (i) i a) podpadają pod ontologię, a ii) i b) pod metafizykę), twierdzenia te należałoby ujmować jako od siebie niezależne. Konkretyzując,
twierdzę zatem, że problemy OSR i MOSR,w przypadku filozofii czasoprzestrzeni,
leżą w wyprowadzaniu ontologicznego twierdzenia o strukturach jako istniejących
fundamentalnie ze zinterpretowanych przy użyciu słownika metafizycznego punktów
czasoprzestrzeni jako pozbawionych indywidualności.
Unifikacja i integracja modeli mechanistycznych
Miłkowski Marcin
Polska Akademia Nauk
W moim wystąpieniu skupię się na łączeniu eksplanacyjnych reprezentacji naukowych. Łączenie to może przebiegać w różnorodny sposób; argumentami relacji
łączenia mogą być pola badawcze, teorie i modele. Można w szczególności mówić
o dwóch typach takiego łączenia: integracji i unifikacji. Często powiada się, że wyjaśnienie jest jednorodne, zunifikowane, jeśli tylko cechuje się ogólnością, prostotą,
elegancją i pięknem; a o jego integracji mówi się wtedy, gdy łączy wiele różnych
reprezentacji w sposób istotny.
Klasyczny pogląd w filozofii nauki, broniony np. przez Carla Hempla i innych empirystów logicznych, głosi, że wyjaśnienia powinny być zarówno zunifikowane, jak i
zintegrowane; teoretycznym ideałem jest wielka teoria wszystkiego, która wyjaśniłaby wszelkie zjawiska jednym prawem przyrody. Podobnych koncepcji broni współcześnie Ph. Kitcher. Szczególnie istotną metodą integracji i unifikacji w klasycznej
propozycji jest redukcja interteoretyczna. Przeciwnicy poglądu klasycznego (m.in.
J. Fodor, J. Dupre) bronili poglądu, że brak jedności i dezintegracja (autonomia teoretyczna, pluralizm itd.) mogą być także wartościowe, zwłaszcza w naukach szczegółowych, w których wyjaśnienia nie odwołują się (wprost) do praw. Proponowano
m.in. podejścia niereduukcyjne w psychologii i w innych polach czy dyscyplinach
kognitywistyki.
Zwolennicy podejścia mechanistycznego do wyjaśniania (tacy jak Carl Craver, William Bechtel czy Gualtiero Piccinini) są szczególnie wyczuleni na problemy związane
12
z integracją, lecz unifikacja pozostawała w ich ujęciu pozostaje raczej w drugim planie. Po zaprezentowaniu dotychczasowych podejść do integracji i problemów związanych z unifikacją w mechanistycznej koncepcji wyjaśniania omówię zagadnienia
dotyczące relacji między integracją a unifikacją. W szczególności istnieją zintegrowane, lecz niezunifikowane wyjaśnienia oraz wyjaśnienia niezintegrowane, lecz zunifikowane (chociaż o ograniczonym zakresie). Podczas gdy zgodnie z tradycyjnym
ujęciem zagadnień unifikacji i integracji normą jest dążenie do nich jako ideałów teoretycznych, nie jest to oczywistym ideałem w koncepcji mechanistycznej. Obrońcy
mechanistycznej koncepcji wyjaśniania podkreślali, że ich podejście jest nieredukcyjne (a przynajmniej nie prowadzi do redukcji eliminacyjnej), lecz podważali także
choćby autonomiczny status psychologii. Aby głębiej wyjaśniać zjawiska psychiczne,
należy, ich zdaniem, odwoływać się do mechanizmów za nie odpowiedzialnych, a te
nie są jedynie mechanizmami psychicznymi. W moim referacie usystematyzuję te
zagadnienia, pokazując, jak mają się one do norm wyjaśniania mechanistycznego w
ogóle. Będę bronić tezy, że nawet jeśli istnieją normy wyjaśniania mechanistycznego,
wymagające minimalizacji redundancji i maksymalizacji niezmienniczości oraz prostoty, nie wynika z nich wymóg przedwczesnej unifikacji i teoretycznej petryfikacji,
które były głównym problemem z tradycyjnym, redukcjonistycznym poglądem na
unifikację i integrację.
Od logiki diachronicznej do logiki niefregowskiej
Omyła Mieczywław
Uniwersytet Kardynała Stefana Wyszyńskiego w Warszawie
Referat mój jest z zakresu semantycznej teorii poznania. W teorii tej opozycja
podmiot poznający - przedmiot poznania
reprezentowana jest przez opozycję:
język sformalizowany J - model zamierzony M języka J.
Logiką diachroniczną nazwał Suszko zastosowania logiki formalnej do badania rozwoju poznania.
W semantycznej teorii poznania: nazwom indywiduowym przyporządkowuje się
przedmioty z uniwersum zamierzonego modelu języka, predykatom odpowiednie własności bądź relacje. Rodzi się pytanie, co w zamierzonym modelu języka odpowiada
zdaniom? Frege uważał, że korelatem semantycznym zdania jest jego wartość logiczna. W klasycznej teorii modeli zwykle przyjmuje się, że formule zdaniowej odpowiada zbiór przedmiotów z uniwersum modelu, które spełniają daną formułę. Przeto
zdaniu prawdziwemu odpowiada uniwersum modelu czyli zbiór pełny, a zdaniu fałszywemu zbiór pusty.
U źródeł logiki niefregowskiej znajduje się pogląd, że korelatami semantycznymi
zdań są przedstawiane przez te zdania sytuacje.
13
W referacie swoim omawiam problem czy i kiedy potrzebujemy zdaniom przypisywać korelaty semantyczne różne od ich wartości logicznych.
Z punktu widzenia współczesnej logiki na pytanie to możemy odpowiedzieć w następujący sposób:
1. Jeżeli świat ujmujemy jako zbiór przedmiotów (korelatów semantycznych nazw)
posiadających własności i pozostających między sobą w pewnych relacjach, a
ponadto świat opisujemy w języku, którego jedynymi spójnikami są spójniki
prawdziwościowe czyli klasyczne, to nie ma potrzeby przyjmować, że istnieją
korelaty semantyczne zdań różne od ich wartości logicznych. Tak właśnie jest
w klasycznej teorii modeli.
2. Jeżeli jednak dla pełniejszego obrazu świata przyjmujemy, że oprócz przedmiotów w świecie istnieją pewne stany rzeczy czyli pewne konfiguracje przedmiotów, które opisujemy w zdaniach, bądź, oprócz spójników prawdziwościowych
występują w języku spójniki nieprawdziwościowe, tak jak na przykład , dlatego, że (zdałem egzamin dlatego, że się nauczyłem) to, aby nie zniekształcać
intuicji znaczeniowych związanych ze zdaniami musimy zdaniom przypisywać
ich korelat semantyczne różne od ich wartości logicznych.
Fakt, że język logiki niefregowskiej jest rozszerzeniem standardowego języka rachunku predykatów w którym oprócz zmiennych nazwowych występują zmienne
zdaniowe oraz obok spójnika równoważności „↔” występuje spójnik identyczności
„=” znacznie zwiększa moc ekspresyjną języka klasycznej logiki predykatów pierwszego rzędu.
Czy fizyka kłamie o modalnościach?
Placek Tomasz
Uniwersytet Jagielloński
Jesteśmy intuicyjnie zaznajomieni ze zmieniającymi się w czasie i zależnymi od
lokalizacji możliwościami. Problem Humowski to pytanie czy takie możliwości są
realne. Wydawałoby się, że danych w tej sprawie może dostarczyć fundamentalna fizyka, w szczególności badanie problemu warunków początkowych w różnych teoriach
fizycznych. Będę argumentował, że fizyka nie jest jednak bezstronnym sędzią w tej
sprawie: jest uprzedzona co do istnienia realnych możliwości. Pokażę, że uprzedzenie
to jest widoczne, po pierwsze, w ogólnych zasadach konstrukcji teorii fizycznej, które
ucieleśniają tak zwaną zasadę Hadamarda. Pokażę następnie na przykładach kilka
szczegółowych strategii fizyki stosowanych w wypadkach, gdy podstawowe równania teorii dają więcej niż jedno rozwiązanie dla zadanych warunków początkowych.
Strategie te po kolei można ująć przy pomocy nastepujących haseł: (1) ten obiekt
nie jest układem naszej teorii, (2) w bardziej adekwatnej teorii wieloznaczność na
pewno zniknie, (3) te wieloznaczne rozwiązania nie są fizyczne i (4) nie ma różnicy
fizycznej między wieloma matematycznymi rozwiązaniami (cechowanie). Tak więc,
pytać fizykę czy w świecie są realne możliwości to jest trochę tak jak pytać ulicznego
sprzedawcę parasoli czy dziś będzie deszcz. Przy braku lepszego autorytetu pod ręką
można to robić, ale odpowiedziom nie należy w pełni wierzyć.
14
Dobre i złe intuicje matematyczne
Pogonowski Jerzy
Uniwersytet im. Adama Mickiewicza w Poznaniu
Odczyt dotyczy objaśnień intuicyjnych w procesach uczenia się i nauczania matematyki. Nie zajmujemy się zatem kontekstem odkrycia (intuicje zawodowych matematyków) ani kontekstem uzasadniania (dedukcja), ale proponujemy do tych dwóch
kontekstów dodać trzeci: kontekst transmisji (termin roboczy; szukamy lepszego).
Obejmuje on procesy nabywania i przekazywania wiedzy matematycznej. Odnosi się
także do postaci, w jakiej przedstawiana jest wiedza matematyczna w podręcznikach
oraz tekstach zródłowych. W odczycie skupimy uwage na heurystycznej i perswazyjnej roli objaśnień intuicyjnych, które uzupełniają prezentację wiedzy matematycznej
dokonywaną środkami czysto formalnymi, zgodnie z obowiązujacymi standardami.
Omówimy różne typy objaśnień intuicyjnych, odwołujące się do: środków językowych, percepcji (głównie rysunków, diagramów, itp.), modeli fizycznych, wiedzy potocznej oraz - co, jak sadzimy, jest najciekawsze - do intuicyjnych objaśnień miedzydziedzinowych, w obrębie samej matematyki. Do ostatniego z tych typów należy np.
objaśnianie tworzenia modeli teorii mnogości metodą wymuszania poprzez analogię
z rozszerzeniami ciał o elementy przestępne.
Rolą objaśnień intuicyjnych jest oczywiście wspomaganie procesu rozumienia pojęć, konstrukcji, twierdzeń, idei matematycznych (zob. cytowana niżej literatura).
Istotne dla dydaktyki matematyki, ale także dla rozumienia miejsca matematyki w
kulturze jest ustalenie, które objaśnienia intuicyjne są trafne i efektywne, a które
raczej zwodnicze i szkodliwe. W programach nauczania matematyki sporo mówi
się o konieczności kształtowania (poprawnych) intuicji matematycznych. Od wieku
XIX wielokrotnie zmieniano zasady przekazywania wiedzy matematycznej, czasem
z katastrofalnymi skutkami (np. program New Math). Sprawą, która nas szczególnie
interesuje, jest możliwość terapii matematycznej: takiego wykładu matematyki na
poziomie uniwersyteckim (dla studentów kierunków pozamatematycznych), który
pomógłby słuchaczom pozbyć się traumatycznych uprzedzeń wobec matematyki, z
różnych powodów wyniesionych z edukacji szkolnej.
Davis, P.J., Hersh, R. 1981. Mathematical experience. Birkhäuser, Boston.
Polya, G. 2014. Mathematics and Plausible Reasoning. Vol. I: Induction and Analogy in Mathematics, Vol. II: Patterns of Plausible Inference. Martino Publishing,
Mans-field Centre, CT.
Sierpińska, A. 1994. Understanding in Mathematics. The Falmer Press, London.
Tall, D. 2013. How Humans Learn to Think Mathematically. Exploring the Three
Worlds of Mathematics. Cambridge University Press, Cambridge.
Thurston, W. 1994. On proof and progress in mathematics. Bulletin of the American
Mathematical Society 30(2), 161-177.
15
Iana G. Barboura koncepcja relacji nauka-wiara
Polkowski Łukasz
Katolicki Uniwersytet Lubelski
Wielokrotnie można się spotkać z poglądem, że nauka i wiara, jako źródła światopoglądu są całkowicie odmienne, a nawet sprzeczne. Szczególnie w epoce Oświecenia
zaczęto deprecjonować język teologii, uznając go za nienaukowy. Współcześnie nadal dominuje przekonanie, że badania nauk przyrodniczych opierają się na metodzie
eksperymentalnej, którą cechuje metodologiczna ścisłość i niesprzeczność, podczas
gdy dociekania teologiczne wydają się wątpliwe i nieobalalne.
Ian G. Barbour, zmarły w 2013 roku, był jednym z najbardziej znanych amerykańskich metodologów, badających język dyskursu religijnego i naukowego. W swoich
pracach porównywał poszczególne elementy języka religii i nauki. Na tej podstawie
w 1974 roku wydał jedno z najważniejszych swoich dzieł pt. Myths, Models and Paradigms, które zostało przetłumaczone na język polski. Barbour porusza w nim trzy
główne zagadnienia: funkcje języka religijnego, rolę modeli w nauce oraz rolę paradygmatów w nauce i religii. Autor dochodzi do wniosku, że zarówno język religii,
jak i język nauki dostarczają wiedzy opartej na doświadczeniu. Wskazuje również na
podobieństwa w konstruowaniu modeli rzeczywistości, występujące w pracy naukowej przyrodnika i teologa. Ponadto, stosując metodologię Thomasa Kuhna, zwraca
uwagę na podobieństwa i różnice w przyjmowaniu i odrzucaniu paradygmatów obecnych na gruncie nauki i religii.
Celem referatu jest zaprezentowanie wniosków wynikających z prac Iana G. Barboura, które dotyczą relacji nauka - wiara.
Reprezentacja strukturalna a eksplanacyjna funkcja
matematyki w naukach przyrodniczych
Proszewska Agnieszka
Uniwersytet Jagielloński
Czy matematyka pełni w nauce funkcję eksplanacyjną? Jeśli odpowiedź na to
pytanie jest twierdząca, w świetle Rozszerzonego Argumentu Z Niezbywalności Matematyki (Baker 2009), realista znajduje się w posiadaniu mocnego argumentu w
sporze o istnienie obiektów matematycznych. Czy jest to jednak jedyna możliwa
droga wyjaśnienia faktu „niezwykłej skuteczności matematyki”?
W ostatnich latach, w kontekście problemu aplikowalności matematyki w naukach
przyrodniczych, popularne stało się podejście strukturalne, zwane „mapowaniem;;
(ang. the mapping account), w myśl którego stosowalność matematyki opierać miałaby się na strukturalnych podobieństwach między pewnym systemem empirycznym
a pewnym, odpowiadającym mu, modelem matematycznym. Podejście to wymaga
założenia o prawdziwości matematycznych twierdzeń, nie wymaga jednak od nas
ontologicznego zaangażowania wobec matematycznych obiektów abstrakcyjnych.
W ramach referatu postaram się zanalizować stosowalność reprezentacji strukturalnej w naukach przyrodniczych oraz wyznaczyć kryteria takiej stosowalności, jako
16
m.in. opartej na możliwości wyznaczenia relacjii nferencji między zjawiskami empirycznymi a pewną matematyczną strukturą. W tym celu zaprezentuję trzystopniową
Inferencyjną Koncepcję Stosowalności Matematyki (Bueno and Colyvan 2011), składającą się z trzech etapów: Immersji, Derywacji i Interpretacji. Omówię również
podstawowe problemy tej koncepcji oraz przedyskutuję filozoficzne implikacje roli
matematyki w formułowaniu naukowych wyjaśnień.
Baker A. (2009): Mathematical Explanation in Science, British Journal for the Philosophy of Science. 60, pp. 611-63.
Batterman, R. W. (2010): On the Explanatory Role of Mathematics in Empirical
Science, British Journal for the Philosophy of Science, 61, pp. 1-25.
Bueno, O. and Colyvan, M. (2011): An Inferential Conception of the Application of
Mathematics, Nous 45.
Bueno, O., French, S. and Ladyman, J. (2002): On Representing the Relationship
Between the Mathematical and the Empirical, Philosophy of Science, 69, pp. 452-73.
Saatsi, J. (2011): The Enhanced Indispensability Argument: Representational vs.Explanatory
Role of Mathematics in Science, British Journal for the Philosophy of Science. 62,
143-154.
Teza o niedookreśleniu teorii przez dane empiryczne a
relatywistyczna rewolucja w fizyce
Sady Wojciech
Uniwersytet Pedagogiczny im. KEN w Krakowie
Wiele od czasów Duhema (1906) napisano o niedookreśleniu teorii przez dane
empiryczne. Szczególną sławę zyskało twierdzenie Quine’a (1951), iż skoro system
teoretyczny konfrontowany jest z wynikami eksperymentów jako całość, to każde pojedyncze zdanie „może obowiązywać niezależnie od doświadczenia, o ile dokonamy
dostatecznie daleko idącego przystosowania reszty systemu”. Taki niekonieczny charakter miało, jego zdaniem, m.in. zastąpienie mechaniki Newtona przez relatywistyczną teorię Einsteina. To twierdzenie nie wytrzymuje konfrontacji z faktycznym
przebiegiem rewolucji relatywistycznej.
Po pierwsze, gdyby Quine miał rację, to trzeba by się spodziewać pojawienia się w
latach 1887-1905 wielu konkurencyjnych wersji teoretycznych - tymczasem niemal
wszyscy pracujący w tym okresie teoretycy uzyskiwali równoważne równania, a różnice między nimi sprowadzały się jedynie do towarzyszących równaniom wyobrażeń.
Po drugie, ta zbieżność matematycznych rezultatów dociekań podlega racjonalnemu
wyjaśnieniu. Po eksperymentach Hertza z 1887 r. równania Maxwella, wcześniej
przez dwadzieścia lat niedoceniane, zyskały powszechną akceptację, a wszystkie późniejsze eksperymenty bez wyjątku równania te potwierdzały. Jeśli - czysto matematycznie, niezależnie od towarzyszących dociekaniom wyobrażeń o własnościach eteru
- stosowano te równania w koniunkcji z transformacjami Galileusza (zachowującymi
niezmienniczość równań mechaniki klasycznej), to wynikało z tego, że ruch układu
odniesienia powinien wpływać na przebieg procesów elektromagnetycznych. Eksperymenty Arago (1810), Airy’ego (1871), Mascarta (lata 1870-e), Michelsona (1881),
17
Michelsona-Morleya (1887), Lodge’a (1891), Rayleigha (1901), Troutona i Noble’a
(1901-1903) świadczyły zgodnie o braku takiego wpływu, a jednocześnie świadczyły
o tym, że zjawiska elektromagnetyczne na Ziemi, poruszającej się raz w jedną stonę,
a po pół roku w drugą przebiegają zawsze zgodnie z tymi samymi równaniami.
Równania Maxwella (a także samo równanie falowe) były niezmiennicze względem
tzw. transformacji Lorentza, z dokładnością do dowolnej funkcji prędkości - i takie
transfromacje uzyskał Voigt już w 1887. Jeśli przewidywania wynikające z koniunkcji równań Maxwella i transformacji Galileusza okazywały się niezgodne z wynikami
eksperymentów, a te same wyniki eksperymentów potwierdzały równania Maxwella,
to wynikało stąd, że zmodyfikować należy transformacje czasoprzestrzenne - i nic innego. A z równań Maxwella, uzupełnionych o proste rozważania fizyczne, wynikało,
jaką ta modyfikacja miała mieć postać matematyczną. (Faktyczny przebieg dociekań
komplikował fakt, że większość teoretyków usiłowała jednocześnie stosować równania
mechaniki klasycznej).
Argument o niedookreśleniu teorii przez dane empiryczne
na gruncie sporu o realizm
Seidler Paulina
Uniwersytet Warszawski
Zgodnie z antyrealistycznym argumentem o niedookreśleniu teorii przez dane
empiryczne, dla tej samej bazy danych empirycznych można stworzyć wiele różnych
i wzajemnie sprzecznych teorii naukowych, które będą przez owe dane wspierane czy
też będą stawiały podobne i sprawdzające się w empirii prognozy. Teorie te będą empirycznie równoważne/obserwacyjnie nierozróżnialne. W takim wypadku nie można
mieć nawet najmniejszej pewności czy teorie, które obecnie są akceptowane można
uznać za chociażby aproksymacyjnie prawdziwe. Jest to spory problem dla realizmu.
Argument o niedookreśleniu teorii przez dane empiryczne jest jednym z ważniejszych, ale mniej dyskutowanych argumentów przeciw naukowemu realizmowi. Prawdopodobnie jest to spowodowane świadomością filozofów nauki, w tym także tych
uznających naukowy realizm, że wybór teorii naukowej nie jest całkowicie zdeterminowany przez dostępne dane empiryczne. Wybór teorii naukowej jest zależny od
wielu innych czynników.
Kolejną kwestia jest to, że problem niedookreślenia jest złożony i nie dotyczy jedynie stanowisk realistycznych, ale wszelkich stanowisk empirystycznych (w tym także
antyrealistycznych). Wynika to częściowo ze związku argumentu o niedookreśleniu
teorii przez dane empiryczne z wspomnianą już tezą Duhema - Quine’a, która nie
jest wymierzona stricte w naukowy realizm.
Rozważając argument o niedookreśleniu można dostrzec wiele sposobów uniknięcia
odrzucenia postawy realistycznej. Przede wszystkim jest to możliwe przez obalenie
jednej z tez składających się na ten argument, tak zwanej tezy empirycznego ekwiwalentu. Inną drogą jest osłabienie argumentu, czyli przez wykazanie, że akceptacja
twierdzeń składających się na argument o niedookreśleniu niekoniecznie prowadzi
18
do odrzucenia realizmu. Twierdzenia te są bowiem do uzgodnienia z głównymi założeniami naukowego realizmu. W referacie zostaną omówione tezy składające się
na argument o niedookreśleniu teorii przez dane empiryczne a także wersje owego
argumentu. Odpowiednio przedstawione zostaną odpowiedzi realistów.
Jak zdefiniować wymiar ontologiczny?
Skowron Bartłomiej
Politechnika Warszawska, Uniwersytet Papieski im. Jana Pawła II w Krakowie
W referacie przedstawiam przykład uniwersum ontologicznego w rozumieniu J.
Perzanowskiego, tzn. trójki złożonej ze zbioru obiektów, relacji bycia częścią oraz
relacji umożliwiana. Materiałem tego uniwersum jest kostka Hilberta wraz z odpowiednio zadanymi relacjami. Kostka Hilberta to kostka o przeliczalnie nieskończenie
wielu wymiarach (w sensie topologicznym). W tym modelu uniwersum ontologicznego, oddaję podstawowe pojęcia ontologii kombinacyjnej, jak: superelement, element, substancja, stan rzeczy, świat możliwy, itd. w nowej odsłonie. Wykazuję, że
uniwersum to spełnia warunek ontologicznego racjonalizmu w sensie Jerzego Perzanowskiego.
Kierując się intuicją, że podstawowe rodzaje obiektów wyróżnionych w ontologice
kombinacyjnej Perzanowskiego różnią się co do wewnętrznej charakterystyki, istotnie podobnej do wymiarowości, pokazuję, że superelement jest zero wymiarowym
obiektem, sytuacje są wielowymiarowe a światy możliwe są nieskończenie wymiarowymi obiektami (w ustalonym sensie wymiaru, niestety różnym od wymiarów w
sensie topologicznych - jest to rodzaj „określoności w wymiarze topologicznym”) w
tym uniwersum oraz że ich zbiór jest gęsty, tzn. że domknięcie w naturalnej topologii
jest równe całości.
Przedstawiane ujęcie jest częścią szerszego programu topologizacji ontologii kombinacyjnej Perzanowskiego, jest zatem istotnym wzbogaceniem ontologii a także ontologiki kombinacyjnej. Przedstawione ujęcie zestawiam z topologizacją uniwersum ontologicznego podaną przez Briana Skyrmsa a rozwijaną przez Thomasa Mormanna.
Skyrms i Mormann proponują tzw. odwzorowaniowe podejście do topologizacji podstawowych obiektów ontologicznych, w tym np. światów możliwych.
19
Pejzaż strunowy, czyli współczesne zagrożenie empiryzmu
Sokołowski Leszek
Uniwersytet Jagielloński
Najważniejszym zagadnieniem filozofii w naukach ścisłych jest radykalny przechył w fizyce fundamentalnej na rzecz czysto racjonalistycznego opisu świata. Zjawisko to jest znane z historii fizyki, lecz od ponad trzydziestu lat - od pojawienia
się idei teorii strun - zachodzi z natężeniem nieporównywalnym z poprzednikami i
zaangażowanych jest w nim sto razy więcej badaczy, tworząc swoisty „paradygmat
strunowy”. Teoria ta, mieniąc się fizyczną, łamie fundamentalną dla fizyki równowagę składnika empirycznego (eksperyment i obserwacja) i racjonalistycznego, czyli
teoretycznego porządkowania faktów, wyjaśniania ich i przewidywania nowych zjawisk. Teoria strun, nadal w zalążkowej formie, jest skrajnie zmatematyzowaną wizją
świata, nie dającą właściwie żadnych sprawdzalnych przewidywań, które według jej
zwolenników pojawią się w nieokreślonej przyszłości, tym niemniej już teraz należy
uważać ją za ostateczną, fundamentalną teorię materii nieożywionej. Głównym jej
przewidywaniem jest istnienie wieloświata (multiverse), dużo większego i bardziej
zróżnicowanego od dotychczas wyobrażanego Wszechświata. Przeciwnicy twierdzą,
iż teoria ta dostarczy nam mnóstwo bezużytecznej (niesprawdzalnej) wiedzy o niedostępnych częściach wieloświata i nie da zadowalającej odpowiedzi na pytania o
własności otaczającego nas świata; iż jest metafizyką przebraną w pojęcia abstrakcyjnej matematyki, by ukryć pesymistyczny pogląd, że dalszy postęp fizyki fundamentalnej jest niemożliwy. Skrajna opinia głosi, iż mamy do czynienia ze zbiorowym
szaleństwem rozumu nie poddanego zewnętrznym racjonalnym regułom. Zwolennicy
teorii strun są na tyle silni i zdeterminowani, że merytoryczna dyskusja niewiele daje.
Krytycy tej teorii potrzebują wsparcia filozofów - konieczna jest szeroka dyskusja:
czego faktycznie oczekujemy od teorii fizycznej, jaki ma ona związek z empirią i
kiedy uznajemy ją za prawdziwą?
Co to jest biologiczna populacja i czy naprawdę istnieje?
Stencel Adrian
Uniwersytet Jagielloński
Ostatnie kilka dekad to był bardzo owocny czas dla filozofii biologii. Rozwój biologii molekularnej sprawił, że nowe koncepcje pojawiały się z dużą częstotliwością,
a problemy, które generowały stały się bardzo interesujące dla filozofów z zacięciem
biologicznym. Pośród nich były takie zagadnienia jak problemy z definicją genu, którego klasyczne rozumienie zostało podważone. Oprócz tego, do łask wróciły stare
problemy filozoficzne w biologii np. co to jest gatunek czy jak wyróżnić z przyrody
osobnika, które zyskały nowe oblicze w wyniku odkrycia, że organizmy wielokomórkowe oddziałują z symbiotycznymi mikroorganizmami na wielką skalę. Niestety, jak
zostało zauważone w przeciągu kilku ostatnich lat, niektóre ważne zagadnienia nie
dostały wystarczająco dużo uwagi. Celem tego referatu będzie analiza filozoficzna
jednego z takich pojęć, a mianowicie – populacji biologicznej, która stanowi pewien fundament nauk biologicznych (w końcu osobniki tworzą populacje, a gatunki
20
składają się z populacji). W pierwszej kolejności analizuje kilka definicji populacji,
które są popularne wśród biologów, wykazując problemy z ich używaniem. Problemy
te, jak zostanie pokazane, są na tyle poważne, że niektórzy uczeni zasugerowali, że
populacje nie istnieją realnie. Druga część referatu będzie dotyczyła właśnie tego
nurtu. Przedstawię w niej dwa nowe podejścia do kwestii definiowania populacji.
Pierwszym jest pluralizm, który mówi, że istnieje wiele alternatywnych sposobów
wyróżniania populacji i żaden nie powinien być faworyzowany względem drugiego,
a powinny być używanie zamiennie, w zależności od potrzeb. Drugim natomiast
mówi, że populacja nie istnieje realnie jako właściwość zbiorowiska osobników, ale
jako właściwość osobnika.
Złożoność Wszechświata a prostota modelu
kosmologicznego - problem ciemnej energii i ciemnej materii
w kontekście sporu realizm-antyrealizm w filozofii nauki
Tambor Paweł, Skrzydłowski Marek, Krawiec Adam
Katolicki Uniwersytet Lubelski, Uniwersytet Jagielloński
Można nie bez przesady stwierdzić, że mamy do czynienia z „dialektycznym”
rozwojem kosmologii. Z jednej strony nowe eksperymenty i obserwacje pozwalają na
coraz dokładniejszą estymację parametrów kosmologicznych (kosmologia wysokiej
precyzji); z drugiej strony operujemy pojęciami ciemnej energii czy ciemnej materii
bez wglądu w ich naturę; wprowadzane są ponadto niefalsyfikowalne idee np. multiverse.
Z metodologicznego punktu widzenia sytuacja jest bardzo specyficzna: zamiast fundamentalnego (kauzalnego) wyjaśnienia oferowany jest fenomenologiczny opis w terminach parametrów. Generuje to także problem degeneracji kosmologii (obserwacje
wyznaczają zbiór modeli kosmologicznych, a nie pojedynczy model). Weinberg (Sen
o teorii ostatecznej ) sugeruje w związku z tym prowokująco, że studenci nie powinni
uczyć się wartościowej wiedzy od filozofów nauki, ale poprzestać na historii swojej
dziedziny.
W naszym wystąpieniu zadajemy zasadnicze pytanie: czym powinna być w takim
razie metodologia kosmologii? Twierdzimy najpierw w ogólności, że powinna być metasystemową refleksją nad praktyką badawczą kosmologów i stosowanymi przez nich
metodami, oraz nad budowanymi przez nich modelami (innymi słowy: założeniami
i stosowanymi przybliżeniami). Pokażemy w jaki sposób badania historii kosmologii
wspierają rozważania metodologiczne (pouczające jest studiowanie historii ewolucji
idei kosmologicznych).
W kosmologii modele teoretyczne reprezentują badane układy empiryczne, a teorie
naukowe są jednymi z wielu konceptualnymi narzędzi, które służą do ich konstrukcji.
Przy czym modele teoretyczne zyskują w praktyce badawczej dość dużą autonomię,
umożliwiając badanie i przeprowadzanie eksperymentów. W tym kontekście pokażemy, jak z punktu widzenia logiki nauki skuteczne jest wykorzystanie takich narzędzi ich selekcji jak metodologia bayesowska czy kryterium informacyjne Akaike. Po
drugie, dla filozofa nauki kosmologia współczesna jest ciekawym polem do dyskusji na temat statusu modeli z punktu widzenia klasycznego w filozofii nauki sporu
21
realizm – antyrealizm. Z jednej strony można powiedzieć, że model kosmologiczny
operuje użytecznymi fikcjami (ciemna energia, ciemna materia), z drugiej strony akceleracja ekspansji Wszechświata jest „uchwytna” empirycznie (nie jest fikcją, por.
nagroda Nobla dla S. Perlmuttera, B. P. Schmidta i A. G. Riessa w 2011). W naszym wystąpieniu dokonamy modyfikacji stanowisk N. Cartwright (How the Laws
of Physics Lie), głoszącej antyrealizm w odniesieniu do praw ogólnych i I. Hackinga
(Representing and Intervening), opowiadającego się na realizmem przedmiotów, do
których odnoszą się teorie naukowe oraz za antyrealizmem w stosunku do samych
teorii. Bronimy zatem tezy antyrealistycznej w odniesieniu do modeli kosmologicznych oraz tezy realistycznej wobec zjawisk fizycznych, które próbujemy opisać za
pomocą pojęć ciemnej energii i ciemnej materii. W terminologii A. Groblera nasze
stanowisko można nazwać „połowicznym realizmem kosmologicznym” (A. Grobler,
Metodologia Nauk ).
Sylogistyczny fragment bezkwantyfikatorowego rachunku
nazw
Wojciechowski Eugeniusz
Uniwersytet Rolniczy im. Hugona Kołłątaja w Krakowie
Ludwik Borkowski sformułował tzw. bezkwantyfikatorowy rachunek nazw. Jest
to bezzałożeniowy rachunek nazw, bogatszy od sylogistyki, mający część wspólną z
ontologią elementarną.
Proponowany jest tu założeniowo sformułowany system sylogistyki, pozwalający na
definicyjne wprowadzenie funktora inkluzji jednostkowej. Na jego gruncie można
sformułować specyficzne reguły bezkwantyfikatorowego rachunku nazw, jako reguły
wtórne, charakteryzujące funktory: jedyności (sol ), inkluzji jednostkowej (ε), słabej
inkluzji (a) i częściowej inkluzji (i ).
Kwantowa teoria miary a ontologia zdarzeń: otwarte
problemy
Woszczek Marek
Uniwersytet im. Adama Mickiewicza w Poznaniu
Kwantowa teoria miary jest nieprzemienną teorią probabilistyczną, którą można
sformułować czysto algebraicznie w języku W*-algebr, tj. domkniętych w ultrasłabej
topologii operatorowej *-podalgebr przestrzeni wszystkich ograniczonych operatorów
na zespolonej przestrzeni Hilberta, których teorię rozwinęli w latach 30. i 40. XX
wieku John von Neumann i Francis J. Murray jako teorię pierścieni operatorowych.
Jej własności tak dalece odbiegają od własności klasycznej teorii miary (będącej jej
bardzo szczególnym przypadkiem), że z perspektywy ontologii fizyki zasadne jest
pytanie, czy ma w ogóle sens mówienie o „kwantowych prawdopodobieństwach”
(co kwestionował już Bohr i inni) oraz jak należy rozumieć same „zdarzenia kwantowe”, jeśli przyjąć, że pojęcie zdarzenia ma sens jedynie w obrębie konkretnej ich
22
struktury (probabilistycznej lub nie). Kwantowe struktury wykluczają możliwość
swobodnego zdefiniowania prawdopodobieństw warunkowych (kwantowe prawdopodobieństwa warunkowe w ogólności nie istnieją, nie definiuje ich nawet tzw. reguła
Lüdersa jako postulat rzutowania), a fundamentalny fenomen kwantowej interferencji jest de facto przejawem drastycznego, fizycznego załamania klasycznej miary
probabilistycznej. Już von Neumann w latach 30. zauważył, wbrew powszechnemu
konsensusowi odnośnie do rozumienia reguły Borna, że stawia to pod znakiem zapytania użyteczność samych klasycznych intuicji dotyczących prawdopodobieństwa.
Zrezygnowanie z radykalnie instrumentalistycznego podejścia do miary kwantowej
(motywowane na przykład koniecznością zastosowania teorii kwantowej w kosmologii) wymusza przede wszystkim wypracowanie nowego podejścia do ontologii zdarzenia, co oczywiście bezpośrednio wiąże się z kontrowersyjnym zagadnieniem ontologii stanu kwantowego. Przedstawione zostaną strategie takiego pełnego włączenia
nieprzemiennej miary do ontologii kwantowej, wiążące się z porzuceniem intuicji separowalnych, monadycznych zdarzeń jako bazy ontologii, ich zalety i kontrowersyjne
aspekty.
23