Tom abstraktów: plik w formacie do pobrania
Transkrypt
Tom abstraktów: plik w formacie do pobrania
Konferencja Filozofii Nauki i Metod Formalnych w Filozofii Instytut Filozofii UJ 27-28.10.2016 Data Science - nowe wyzwanie dla filozofii nauki Besler Gabriela Uniwersytet Śląski Data Science (dalej: DS) zajmuje się opracowaniem tzw. Big Data (BD), które są rozumiane jako wielkie wolumeny różnorodnych, bezładnych danych, strumieniowo napływających w czasie rzeczywistym, jakościowych i ilościowych (w tym obrazowych), dotyczących ludzkiego zachowania lub procesów zachodzących w przyrodzie, zbieranych przez maszyny niejako „przy okazji”, bez zamierzenia ludzkiego. BD wymagają specjalnego oprzyrządowania, oprogramowania i wiedzy, by je błyskawicznie opracować i z nich skorzystać w celach biznesowych, naukowych i społecznych. Zadaniem DS jest zbierać, opracować i przetworzyć informacje zawarte w BD, powstające w wyniku powszechnej dostępności nowoczesnych technologii i urządzeń do przekazu i przesyłu danych: Internet, telefony komórkowe, GPS itd. Czy w realizacji tego zadania posługujemy się jedną z tradycyjnych metod, dobrze opisanych w literaturze metodologicznej? Wiele wskazuje na to, że mamy do czynienia z sytuacją konstruowania nowej metody. Nie jest to metoda statystyczna: mając dostęp do danych dotyczących całej populacji nie korzysta się z tzw. próbki losowej. Metoda stosowana w DS jest przypadkiem indukcji, bo ogólne wnioski formułuje się na podstawie zdarzeń jednostkowych, ale jest to zazwyczaj indukcja zupełna. Nie jest to przypadek metody redukcyjnej, bo zebrane dane nie prowadzą nas do informacji o tym, co było wcześniej (w sensie przyczynowym), ale służą prognozowaniu, wyciąganiu wniosków, a więc to (słaba) forma dedukcji. Pytaniem otwartym jest także problem uzasadniania otrzymanych wyników: weryfikacja, konfirmacja i falsyfikacja są nieadekwatne. Ugruntowanie się metody DS może być zaczątkiem kolejnej zmiany paradygmatu naukowości, opartego m.in. na tym, że maszynowe opracowanie BD pokazuje zależności i przypadki, których nawet umysły zespołu badaczy raczej by nigdy nie odkryły. L. Floridi: The Fourth Revolution: Oxford 2014. V. Mayer-Schönberger, K. Cukier: Bid Data. Warszawa 2014. M. Tabakov, J. Korczak, B. Franczyki: Big Data. „Informacja Ekonomiczna” 1(31) 2014. 2 O pewnych ontologicznych interpretacjach kwantowej teorii pola Bigaj Tomasz Uniwersytet Warszawski Kwantowa teoria pola jest najbardziej zaawansowaną teorią fundamentalnych składników materii i ich wzajemnych oddziaływań. W ramach ogólnego matematycznego schematu kwantowej teorii pola rozwinięte zostały takie szczegółowe teorie podstawowych oddziaływań, jak elektrodynamika kwantowa (QED) w wypadku oddziaływań elektromagnetycznych czy kwantowa chromodynamika (QCD) w wypadku oddziaływać silnych (jądrowych). Jednakże z filozoficznego punktu widzenia wyzwaniem jest sformułowanie spójnej ontologicznej interpretacji kwantowej teorii pola. W dyskusjach filozoficznych na ten temat dominują dwa nurty: interpretacja cząstkowa i interpretacja polowa. Zgodnie z interpretacją cząstkową podstawowymi obiektami opisywanymi przez kwantową teorię pola są cząstki - zarówno cząstki materii, jak i cząstki przenoszące oddziaływania. W klasycznej interpretacji pola fizyczne są reprezentowane przez ciągłe funkcje przypisujące wielkości fizyczne poszczególnym punktom czasoprzestrzeni. Jednakże w podejściu kwantowym pola są poddane procedurze tzw. kwantyzacji, w wyniku której ulegają one „dyskretyzacji”. Ta dyskretyzacja jest interpretowana jako przejaw cząsteczkowego charakteru pól fizycznych. Cząsteczkowa interpretacja kwantowej teorii pola natrafia jednak na szereg poważnych problemów pojęciowych. Istnieje szereg formalnych twierdzeń (tzw. no-go theorems), które pokazują, że cechy zwykle przypisywane obiektom o charakterze cząsteczkowym (głównie związane z ich zakładaną lokalizowalnością) prowadzą do sprzeczności na gruncie relatywistycznej teorii kwantowej. Do tych twierdzeń należą m.in. twierdzenia Malamenta, Hegerfeldta i Reeh-Schliedera, to ostatnie dowodzone na gruncie algebraicznej kwantowej teorii pola. Inne argumenty przeciwko interpretacji cząsteczkowej opierają się na istnieniu tzw. efektu Unruh (kwanty Rindlera). Ostatecznym ciosem zadanym interpretacji cząsteczkowej wydaje się twierdzenie Haaga, które pokazuje, że w teorii oddziałujących pól kwantowych istnieją reprezentacje w przestrzeniach Hilberta które są unitarnie nierównoważne representacjom w przestrzeniach Focka (są to reprezentacje, które opierają się na stanach z dobrze określonymi liczbami cząstek). Twierdzenie Haaga zdaje się sugerować, że w sytuacjach, w których następuje oddziaływanie pomiędzy kwantami (do takich sytuacji należą typowe eksperymenty rozpraszania w fizyce wysokich energii), pojęcie liczby cząstek przestaje mieć dobrze określony sens. Do powyższych argumentów formalnych można dodać argumenty oparte na analizie matematycznej procedury kwantyzacji pól. Jest ona oparta na technice wydzielania odrębnych modów wzbudzania pola, znanej z elementarnej analizy oscylatorów harmonicznych. Jednakże można argumentować, że postulowane w wyniku tej procedury kwanty ekscytacji mają w istocie niewiele wspólnego z ontologicznie dobrze określonymi obiektami fizycznymi. Reasumuąc, interpretacja cząsteczkowa wydaje się nie do utrzymania. Nie oznacza to jednak, że konkurencyjna interpretacja polowa jest pozbawiona problemów. W istocie pojęcie kwantowego pola jest na tyle odległe od intuicji klasycznych, że trudno przypuszczać, abyśmy dysponowali klarowną 3 ontologiczną interpretacją tego, czym są pola w teorii kwantowej. Sprawa interpretacji kwantowej teorii pola jest zatem nadal otwarta, a nowe interpretacje, oparte na różnych metafizycznych pojęciach (tropów, zdarzeń itd.) pojawiają się regularnie na łamach periodyków i w monografiach poświęconych filozofii fizyki. Monadyczna teoria bytu Biłat Andrzej Politechnika Warszawska Celem referatu jest prezentacja formalnej koncepcji bytu - obejmującej m.in. tezy o istnieniu świata jako całości, świata realnego, świata idealnego i świata przyrody - w której istotną rolę odgrywa monadyczna logika drugiego rzędu. Logika ta zostanie poddana najpierw ontologicznej interpretacji w duchu klasycznej, PlatońskoArystotelesowskiej koncepcji bytu, a następnie użyta jako podstawa i narzędzie jednolitej aksjomatyzacji zbioru niektórych założeń współczesnej matematyki (w tym topologii) i ontologicznych zobowiązań nauk empirycznych (w tym kosmologii fizycznej). Metodologia pozytywizmu krytycznego Hansa Vaihingera Ciuciura Janusz Uniwersytet Łódzki Parmenides mówił „nie można pomyśleć tego, czego nie ma”; my stoimy na przeciwległym krańcu i mówimy: „co można pomyśleć, musi z pewnością być fikcją”. (F Nietzsche, Wola mocy, aforyzm 276) Główne zainteresowania filozoficzne Vaihingera ogniskowały się wokół nauki, z której czerpał przykłady. Takie pojęcia jak atom, grawitacja, czy też siła, wykorzystuje się w określonym celu, dla potrzeby chwili. Pomagają one uprościć opis naukowy, a w dalszej perspektywie wiodą do budowy lepszych, bardziej użytecznych teorii. Pojęcia, terminy, struktury, klasyfikacje, definicje, itp. wszystko to jest - zdaniem Vaihingera - wytworem umysłu ludzkiego i jako takie nie znajduje realnego odbicia w świecie rzeczy i zjawisk. Już same użyte w tym miejscu pojęcia: rzecz, zjawisko są niczym innym jak świadomie stworzonymi fikcjami, które okazują się niezastąpione w opisie świata, opisie badań naukowych, doznań religijnych, czy też w życiu codziennym. Vaihinger ukuł termin fikcja na określenie przekonań, o których wiemy, że nie są prawdziwe, lecz okazują się z pewnych względów, np. naukowych, korzystne. Granica między prawdą a fałszem jest płynna, albowiem wszystko co postrzegamy ma charakter subiektywny: Subjektives ist fiktiv; Fiktives ist falsch; Falsches ist Irrtum - pisał Vaihinger w Die Philosophie des Als Ob (Rozdz. XXV, s. 193). Ambicją 4 nauki nie jest więc dotarcie do tzw. istoty rzeczy, lecz uczynienie z fikcji coraz bardziej użytecznego narzędzia, służącego do badania świata obiektywnego oraz do działania. Dlatego też, choćby dla celów praktycznych, zmuszeni jesteśmy tworzyć tzw. prawdy częściowe, utożsamiane po prostu z fikcjami. Posługując się nimi, możemy mieć iluzoryczne przeświadczenie o rozumieniu, czym jest dany przedmiot poznania, jakie ma własności oraz w jakiej jest relacji (lub jakich pozostaje relacjach) z innymi przedmiotami. Tak bywa np. z niektórymi koncepcjami filozoficznymi, w których operuje się „w sposób bezkrytyczny” takimi pojęciami jak: substancja, kategoria, gatunek, rodzaj, idea, itp. Vaihinger określił ten rodzaj filozofii mianem „filozofii dogmatycznej”. Celem referatu będzie przedstawienie filozoficznych pomysłów Hansa Vainhingera ze szczególnym uwzględnieniem ich konsekwencji metodologicznych. Protofizyka a sens absolutnego tła Czerniawski Jan Uniwersytet Jagielloński Ogólną teorię względności zazwyczaj interpretuje się jako teorię bez (absolutnego) tła. Prowadzi to jednak w fizyce do problemu określenia gęstości energii pola grawitacyjnego, a w filozofii do problemu „dziury”, dla którego nie ma w ramach tej interpretacji zadowalającego rozwiązania. W związku z pierwszym problemem proponowano bimetryczną interpretację OTW, w ramach której, oprócz fizycznej, dynamicznej metryki czasoprzestrzeni, przypisano jej absolutną metrykę tła, której rolę miała grać płaska metryka Minkowskiego. Z drugiej strony, takie rozwiązanie pozwalałoby też uniknąć problemu „dziury”, który w teoriach z absolutnym tłem nie występuje. Przeciwko temu rozwiązaniu argumentowano wskazując, że podczas gdy metryka tła ma dobrze określony sens operacyjny, to sens metryki tła, który pozwoliłby jakoś odnieść jądo wyników pomiarów, jest niejasny. Wątpliwości budzi też samo odróżnienie absolutnych i dynamicznych elementów struktury modelu teorii, gdyż te pierwsze definiuje się jako niezmienniki symetrii teorii, a symetrie teorii jako te dyfeomorfizmy, które zachowują jej elementy absolutne. Oba te zastrzeżenia pozwala oddalić protofizyka, wprowadzając pewne uogólnienie pojęcia sensu operacyjnego, mające zastosowanie również do elementów absolutnego tła. Przypisanie mu takiego sensu pozwala też wyjść poza zarysowane błędne koło w określeniu absolutnych elementów teorii. Zarazem jednak dostarcza wskazówki do korekty absolutnej geometrii tła, którą nie może już być geometria Minkowskiego. 5 Filozoficzne implikacje Davida Hilberta twierdzenia o niezmiennikach Grygiel Wojciech Uniwersytet Papieski im. Jana Pawła II w Krakowie Wszystkie dobrze potwierdzone współczesne teorie fizyczne można przedstawić jako teorie niezmienników grup pewnych przekształceń. Przykładowo, ogólna teoria względności jest teorią niezmienników grup dyfeomorfizmów, mechanika kwantowa jest teorią grup permutacji natomiast kwantowa teoria pola jest teorią grup niezmienników przekształceń lokalnych symetrii cechowania. Określone przy pomocy teorii grup pojęcie symetrii jest więc kluczowe dla struktury matematycznego formalizmu tych teorii. Okazuje się również, że teoriogrupowe pojęcie symetrii posiada swoje naturalne uogólnienie w postaci grupoidów. W oparciu o te obserwacje warto bliżej przyjrzeć sie pojęciu niezmienniczości i zbadać, w jakim zakresie niezmienniki poszczególnych teorii kwalikują sie jako możliwe wyznaczniki ontologii rzeczywistości fizycznej jako elementu struktury teorii. W tej kwestii pouczające się wydaje twierdzenie o niezmiennikach sformułowane przez Davida Hilberta dla transformacjiliniowych. Orzeka ono, że jeżeli grupa G jest grupą macierzy linowych przekształceń układów współrzędnych, to znaczy G = SLn (C), to można wskazać jedynie skończoną liczbę generatorów niezmienników, za pomocą których wygenerować można wszystkie pozostałe. W proponowanym referacie dokonana zostanie wstępna analiza filozoficznych aspektów tego twierdzenia, a w szczególności jak implikowana przez niego skończoność liczby generatorów pozostaje w relacji do klasycznych pojęć filozoficznych, takich jak substancja, istnienie, rzeczywistość, konieczność oraz Absolut. W takiej perspektywie badawczej rysuje się unikalna szansa na konceptualne zbliżenie abstrakcyjnego języka współczesnej fizyki oraz klasycznego dyskursu filozoficznego. Metody ontologii formalnej: topologia jako narzędzie ontologii. Tak czy nie? Kaczmarek Janusz Uniwersytet Łódzki Na konferencji odniosę się do uznanych już metod formalnych tj. do metody parafraz Ajdukiewicza i hermeneutyki logicznej Wolniewicza. Podane zostaną stosowne przykłady ilustrujące obie metody. Rozważę również interesujące propozycje Husserla nt. idealizacji, generalizacji i innych operacji, które twórca fenomenologii omawia m. in. w swych Ideach I. Podejmę tu problem, czy operacje te mają charakter formalny. Głównym problemem referatu będzie jednak kwestia: czy narzędzia topologiczne mogą być wykorzystane w definiowaniu, modelowaniu, podstawowych pojęć ontologii: substancja, własności, czas, przestrzeń, gatunek, rodzaj, istota itp. Zajmę się jednym tylko problemem: substancją w sensie Leibniza. Leibniz określa ją (definiuje) przez poniższe tezy: 6 1. Substancja jest mnogością (agregatem) monad. 2. Substancja posiada monadę dominującą. 3. Monada dominująca zapewnia jedność substancji. Zaproponuję, by monadę modelować jako topologię i zdefiniuję substancję, jako agregat (zbiór) topologii odpowiednio uporządkowanych. Okazuje się, że tak zdefiniowana substancja jest systemem topologii (monad) i można ją analizować z punktu widzenia teorii systemów zaproponowanej m. in. przez M. Bunge, J. Bocheńskiego czy R. Ingardena. System natomiast - przypomnijmy - jest jednym z pojęć, przez które ujmuje się przedmiot w sensie ontologicznym. Spór o ontologiczny status matematyki. Nowe otwarcie Kałuszyńska Elżbieta Uniwersytet Warmińsko-Mazurski Pytanie o odniesienie przedmiotowe matematyki ciągle pozostaje bez jednoznacznej, powszechnie akceptowanej odpowiedzi. Najczęściej wyróżnia się dwa przeciwstawne stanowiska: 1. rzeczywistość matematyczna istnieje obiektywnie - Roger Penrose, który opowiada się za takim rozwiązaniem, mówi o platońskim świecie idei matematycznych; 2. rzeczywistość matematyczna jest konstruowana przez matematyków. Obie propozycje stoją w obliczu zasadniczych trudności: w pierwszym przypadku zmierzyć się trzeba z problemem prawdziwości matematycznych twierdzeń, w drugim - z problemem niesprzeczności. Dla obu stanowisk wyzwanie stanowi ta niedorzeczna skuteczność matematyki. Trudno wyjaśnić, czemu świat idei albo konstrukcje matematyków tak świetnie pasują do empirycznej rzeczywistości, areny naszych działań. Burzliwe dyskusje, jakie tocząsię obecnie w fizyce, wzbogaciły jeszcze paletę stanowisk. Na przykład Max Tegmark twierdzi, iż istnienie matematyczne jest równoważne istnieniu fizycznemu. Oznacza to, że wszystkie struktury istniejące w matematyce istnieją także fizycznie, [a] nasza zewnętrzna rzeczywistość jest strukturą matematyczną. Argumenty Tegmaraka nie są zbyt przekonujące (jednym z nich jest koncepcja precyzyjnego dostrojenia), toteż ma niewielu zwolenników. Znaczące natomiast jest „odkrycie” i wykorzystywanie twierdzenia Noether wiążącego niezmienniczość twierdzeń ze względu na ciągłą transformację symetrii czasoprzestrzennych (przesunięcie w czasie, przestrzeni, obroty) z prawami zachowania (energii, pędu, momentu pędu). Jest to potężne narzędzie. Pozwala z innej perspektywy spojrzeć na „równania, które są mądrzejsze od tych, którzy je napisali”. 7 Charakterystyka źródeł instrumentalistycznej koncepcji wiedzy naukowej Kawalec Paweł Katolicki Uniwersytet Lubelski Powszechnie znany jest udział G. W. Leibniza w powołaniu Towarzystwa Nauk w Berlinie w 1700 r., którego został przewodniczącym. Mniej znane późniejsze fakty, choć wskazujące na większy zakres jego oddziaływania, dotyczą zainspirowania cesarza oraz cara do powołania odnośnych towarzystw nauk w Wiedniu oraz Sankt Petersburgu. Leibniz był także aktywnym członkiem dwóch najważniejszych ówczesnych towarzystw w Londynie i Paryżu. Przy okazji spotkań z licznymi decydentami ówczesnego świata, kolejnymi cesarzami, królami europejskimi, carem, książętami itp. niemal każdorazowo opracowywał zamaszyste plany reform różnych obszarów ówczesnego życia, w których niepoślednią rolę miał odgrywać postęp nauk przyrodniczych, a także oświecenie duchowe, zwłaszcza moralne, pod wpływem nauk humanistycznych. Ponadto, jego wielorakie plany postępu miała spajać idea „nauki uniwersalnej” jako spójnego systemu wiedzy naukowej, której podstaw miała dostarczyć scientia generalis. Pomimo tego, wpływ Leibniza na kształtowanie europejskiej polityki naukowej jest tematem, który nie wzbudził dotąd większego zainteresowania w badaniach. Niniejsze studium jest przyczynkiem do takiego studium. Koncentruje się ono na, jak sądzę, kluczowym elemencie poglądów Leibniza na naukę, który można określić jako instrumentalizm epistemiczny. W charakterystyce tej koncepcji zwrócę uwagę szczególnie na te jej elementy, które kontrastują z wcześniejszą, renesansową koncepcją F. Bacona, którą Leibniz się inspirował, a także te, które korespondują ze współczesnym instrumentalizmem w teorii nauki, który jest składową szerszego zjawiska, określanego jako ekonomizacja nauki. Ta ostatnia ukazana zostanie jako nowy fenomen na szerszym tle przemian, jakie nastąpiły po tzw. trzech falach w teorii nauki. Za realistyczną interpretacją filozofii nauki Pierre’a Duhema Kotowski Mateusz Politechnika Wrocławska Co najmniej od czasów prac Karla Poppera (i w dużej mierze pod ich wpływem) filozofowie nauki zwykli upatrywać w stanowisku Pierre’a Duhema wzorcowego przykładu instrumentalizmu (czy konwencjonalizmu rozumianego jako forma antyrealizmu) w stosunku do nauki, dla którego jej celem jest nie dążenie do prawdy, lecz tworzenie empirycznie skutecznych instrumentów predykcji. Niewiele w tym zaszufladkowaniu poglądów francuskiego klasyka zmieniły pojawiające się od kilku dekad głosy wskazujące na co najmniej problematyczność takiego ich odczytywania. Jest tak po części dlatego, że stereotyp antyrealistycznej orientacji Duhema utrwalił się na tyle mocno, że głosom takim trudno jest przebić się do powszechnego dyskursu, po części zaś dlatego, że częściej wskazują raczej na niejednoznaczność poglądów Duhema - który miałby oferować nam instrumentalizm przyprawiony jedynie szczyptą 8 realizmu czy opowiadać się za czysto motywacyjną rolą przekonań realistycznych w praktyce naukowej - niż skłonne mu są przypisać jednoznacznie realistyczną orientację. Tymczasem zarówno jedne, jak i (choć w mniejszym stopniu) drugie interpretacje zdają się nie wytrzymywać konfrontacji z nieuprzedzoną lekturą pism Duhema, które zaświadczają o jego wierności dla wartości tradycyjnie wiązanych z nauką, w tym przede wszystkim prawdy jako jej celu, i tym samym pozwalają upatrywać w jego stanowisku formy realizmu naukowego. Tym bardziej, jeśli odczytywać je przez pryzmat współczesnego rozumienia tego stanowiska, które dalekie jest typowych podręcznikowych definicji (określających je jako pogląd, zgodnie z którym teorie naukowe oferują nam w klasycznym sensie prawdziwe opisy zarówno obserwowalnych, jak nieobserwowalnych części niezależnego od umysłu świata). Moje wystąpienie zamierzone jest jako głos za uznaniem realistycznej interpretacji stanowiska Duhema zarazem jako oddającej mu sprawiedliwość, jak i zgodnej z współczesnymi intuicjami stojących za realizmem naukowym. Argumentując za tą interpretacją (i przeciwko konkurencyjnym), odwołam się przede wszystkim do użytku, jaki Duhem w swoich pracach czynił z pojęcia klasyfikacji naturalnej oraz tego rodzaju argumentacji za przypisywaniem nauce możliwości poznawczych, którą z czasem przyjęło się określać argumentacją z „sukcesu nauki” czy „z braku cudów”. Czy klasyczna metoda statystycznego testowania hipotez realizuje cel dążenia do prawdy? Kubiak Adam Paweł, Kawalec Paweł, Lipski Piotr Katolicki Uniwersytet Lubelski Wielu filozofów zgodziłoby się, że racjonalność naukowo uzasadnionych przekonań/przyjętych tez/opiera się na tym, że metoda naukowa, jako sposób nabywania przekonań/przyjmowania tez, jest wiarygodnym środkiem dochodzenia do prawdy w sensie skutecznego (w akceptowalnym stopniu) przyczyniania się do zwiększania udziału prawdziwych i zmniejszania udziału fałszywych pośród wszystkich przyjętych tez/posiadanych przekonań. Uważa się, że metody testowania hipotez - testy istotności - należące do częstościowego paradygmatu statystycznego, którego jednym z głównych twórców i propagatorów był Jerzy Neyman, wskazują jaka jest ich skuteczność w dochodzeniu do prawdy. Ta wyraża się w z góry określonych spodziewanych wartościach dwóch rodzajów błędów, które można traktować jako podstawę szacowania częstości ich popełniania przy wielokrotnym używaniu metody. Jednym z problemów dotyczących powyższej własności jest fakt, że wspomniana skuteczność testu odnosi się do wyidealizowanej, kontrfaktycznej klasy nieskończonej liczby obserwacji poczynionych w identyczny sposób. Ponadto, gdyby wspomniana wiarygodność testu dotyczyła jego aplikacji w różnych kontekstach, czy nie wymagałoby to przyjęcia, że poszczególne badania są od siebie niezależne? Następny kłopot sprawia fakt, że w różnych kontekstach korzystania z tego samego testu może być wybierany inny poziom błędu i zależy on od praktycznych preferencji badacza. Dodatkowo, metoda nie przewiduje zbieżności do ideału przyjmowania jedynie prawdziwych tez wraz ze wzrostem liczby jej zastosowań. Wydaje się również nie wskazywać w jaki sposób wyniki już uzyskane w ramach danego kontekstu badawczego mogą 9 być brane pod uwagę przy okazji kolejnych badań na ten sam temat. W końcu, próby ominięcia części powyższych problemów poprzez odwołanie do twierdzeń statystyki matematycznej wydają się prowadzić bądź do błędu regresu w nieskończoność, bądź błędu kołowacizny. Niezależnie od powyższych problemów, okazuje się, że specyfika koncepcji jednego z dwóch rodzajów błędów (beta) w rzeczywistości uniemożliwia traktowanie go jako podstawy szacowania przewidywanej częstości błędów; pozwala szacować częstość niewłaściwych decyzji, co, w świetle celu dochodzenia do prawdy, nie jest jednak tym samym. Referat będzie polegał, po pierwsze, na podjęciu próby ominięcia problemów wskazanych w drugim akapicie, poprzez argumentację nie wykraczającą poza ramy ogólnie rozumianego paradygmatu częstościowego. Drugim celem referatu będzie dyskusja nad ograniczeniami metody wynikającymi z problemu dotyczącego błędu beta. W wyniku tego zostanie przeprowadzona próba obrony omawianej metody jako w specyficzny sposób realizującej cel doprowadzania nas do prawdya zarazem wskazane niekorzystne aspekty traktowania tej metody jako standardu w badaniach naukowych. Problemy z pojęciem energii w ogólnej teorii względności Luc Joanna Uniwersytet Jagielloński Przy przechodzeniu od klasycznych teorii fizycznych do bardziej zaawansowanych (relatywistycznych bądź kwantowych) mamy do czynienia z głębokimi zmianami podstawowych pojęć fizycznych, często na tyle znacznymi, że można mieć wątpliwości, czy w ogóle stare pojęcia są w nowych teoriach wciąż obecne. W niniejszym referacie zostanie rozważony jeden z przypadków takiej zmiany, mianowicie charakterystyka energii w ogólnej teorii względności. Jedną z najważniejszych cech energii w fizyce klasycznej stanowi fakt, iż jest ona wielkością zachowaną. W OTW pojawia się odpowiednik prawa zachowania energii dla materii, jednak z pewnych technicznych powodów nie może być on uznany za właściwą zasadę zachowania energii. Aby uzyskać tę ostatnią, należałoby założyć istnienie jakiejś dodatkowej składowej energii całkowitej. Istnieje naturalny kandydat na taką składową, mianowicie energia samej czasoprzestrzeni. Okazuje się jednak, że jej definicja nie jest jednoznaczna, o ile nie wprowadzimy do teorii pewnych dodatkowych struktur (np. wyróżnionego układu odniesienia). W związku z tym niektórzy autorzy stawiają tezę, że w OTW w ogóle nie istnieje taka wielkość jak energia. Aby móc postawić taką tezę, należy najpierw dokładnie określić, czym energia jest. Pojęcie to występuje w języku potocznym i w fizyce klasycznej; ograniczę się tutaj do intuicji stojących za tym drugim. Dobre ich podsumowanie daje praca (Bächtold i Guedj 2014). Jedną z podanych tam charakterystyk energii stanowi jej zachowanie (tak więc, o ile jakaś wielkość nie jest zachowana, nie można jej nazwać energią); inną - jej dwojaka relacyjność: po pierwsze nie jest ona samodzielnym bytem, tylko przynależy zawsze do jakiegoś obiektu, a po drugie, co dla nas ważniejsze, zawsze jest określona w odniesieniu do jakiegoś obiektu innego niż ten, o którego energii 10 mówimy. Zależność ta zostanie w referacie przedstawiona na przykładzie energii kinetycznej i potencjalnej (rozumianych klasycznie). Biorąc cechę relacyjności za dobrą monetę, należy wyciągnąć wniosek, że w przypadku braku odniesienia jakiegoś obiektu do jakichkolwiek innych obiektów nie może być mowy o energii. To spostrzeżenie stanowi sedno mojego pomysłu na wyjaśnienie problemu energii w OTW (nie odwołującego się do żadnych specyficznych własności tej teorii). Zgodnie z nim obecność tej wielkości lub jej brak zależeć będzie od szczegółów modelu - w szczególności, jeśli jakiś obiekt nie jest do niczego odniesiony, to nie należy się spodziewać, że ma on energię. Jak pokazują analizy pracy (Lehmkuhl 2011) w przypadku tej części energii całkowitej w OTW, która jest związana z materią, można znaleźć ową relacyjność (w tym przypadku chodzi o relację do metryk), i to na różnych poziomach. Natomiast o słuszności mojej hipotezy dla części energii całkowitej związanej z czasoprzestrzenią może świadczyć fakt, że udaje się ją zdefiniować jednoznacznie tylko przy założeniu pewnych dodatkowych struktur. Strukturalizm w filozofii czasoprzestrzeni z perspektywy metaontologii i metametafizyki Luty Damian Uniwersytet im. Adama Mickiewicza w Poznaniu Pierwszym celem referatu jest przedstawienie stanowisk dotyczących czasoprzestrzeni formułowanych z perspektywy ontologicznie i metafizycznie zorientowanych wersji realizmu strukturalnego. Pokrótce omówione w tym kontekście zostaną poglądy na czasoprzestrzeń związane ze stanowiskami ontycznego realizmu strukturalnego (OSR, zaproponowane przez J. Ladymana) i umiarkowanego ontycznego realizmu strukturalnego (MOSR, zaproponowane przez M. Esfelda i V. Lama). Nie analizuję poglądów innych autorów, takich jak np. M. Dorato czy E. Slowika, którzy również posiadają pewne poglądy strukturalistyczne. Drugim celem jest wskazanie zasadniczym kłopotów związanych z tymi stanowiskami na gruncie filozofii czasoprzestrzeni: i) autonomia względem (wyrafinowanego) substancjalizmu i relacjonizmu ii) adekwatność dyspozycyjnego ujęcia przyczynowości i ogólnie adekwatność przyjmowania istnienia obiektywnych modalności iii) przyjmowanie symetrii jako jednego z dwóch (obok, realistycznie zinterpretowanych, praw fizyki) aspektów „fundamentalnej struktury świata”. Trzecim celem jest (skromne) uzasadnienie tezy, że zasadniczym powodem kłopotów strukturalisty czasoprzestrzennego (w ramach OSR oraz MOSR) jest niedostateczne rozróżnienie metametafizycznego od metaontologicznego argumentowania na rzecz określonych twierdzeń w OSR/MOSR. Zakładam, że metaontologią jest przyjęcie, że ontologię danej teorii określamy poprzez analizę semantyki kwantyfikatorów egzystencjalnych w ramach rekonstrukcji danej teorii w logice pierwszego rzędu, a metametafizyką jest ustalenie, jakimi kategoriami, którymi posługujemy się stawiając tezy metafizyczne, również w interpretacyjnym kontekście względem teorii naukowych (kategorie obiektów, relacji, własności, ich sposobów istnienia). Teraz można oddać centralne tezy OSR i MOSR jako zespoły twierdzeń: 11 1. (OSR) i) Fundamentalnie, istnieją tylko struktury (wg. Frencha „ujawniające się” poprzez symetrie i prawa fizyczne) ii) Obiekty (np. punkty czasoprzestrzenne) nie posiadają jakiejkolwiek indywidualności (mocnej bądź słabej) 2. (MOSR) a) Fundamentalnie, istnieją zarazem struktury jak i obiekty, te drugie są zależne od tych pierwszych b) Obiekty ulegają indywiduacji w kontekście struktury; obiektom przysługuje obiektywna modalność Uzasadniając swoją tezę, będę starał się pokazać, że ze względu na odmienny status dwóch twierdzeń z każdej pary (i) i a) podpadają pod ontologię, a ii) i b) pod metafizykę), twierdzenia te należałoby ujmować jako od siebie niezależne. Konkretyzując, twierdzę zatem, że problemy OSR i MOSR,w przypadku filozofii czasoprzestrzeni, leżą w wyprowadzaniu ontologicznego twierdzenia o strukturach jako istniejących fundamentalnie ze zinterpretowanych przy użyciu słownika metafizycznego punktów czasoprzestrzeni jako pozbawionych indywidualności. Unifikacja i integracja modeli mechanistycznych Miłkowski Marcin Polska Akademia Nauk W moim wystąpieniu skupię się na łączeniu eksplanacyjnych reprezentacji naukowych. Łączenie to może przebiegać w różnorodny sposób; argumentami relacji łączenia mogą być pola badawcze, teorie i modele. Można w szczególności mówić o dwóch typach takiego łączenia: integracji i unifikacji. Często powiada się, że wyjaśnienie jest jednorodne, zunifikowane, jeśli tylko cechuje się ogólnością, prostotą, elegancją i pięknem; a o jego integracji mówi się wtedy, gdy łączy wiele różnych reprezentacji w sposób istotny. Klasyczny pogląd w filozofii nauki, broniony np. przez Carla Hempla i innych empirystów logicznych, głosi, że wyjaśnienia powinny być zarówno zunifikowane, jak i zintegrowane; teoretycznym ideałem jest wielka teoria wszystkiego, która wyjaśniłaby wszelkie zjawiska jednym prawem przyrody. Podobnych koncepcji broni współcześnie Ph. Kitcher. Szczególnie istotną metodą integracji i unifikacji w klasycznej propozycji jest redukcja interteoretyczna. Przeciwnicy poglądu klasycznego (m.in. J. Fodor, J. Dupre) bronili poglądu, że brak jedności i dezintegracja (autonomia teoretyczna, pluralizm itd.) mogą być także wartościowe, zwłaszcza w naukach szczegółowych, w których wyjaśnienia nie odwołują się (wprost) do praw. Proponowano m.in. podejścia niereduukcyjne w psychologii i w innych polach czy dyscyplinach kognitywistyki. Zwolennicy podejścia mechanistycznego do wyjaśniania (tacy jak Carl Craver, William Bechtel czy Gualtiero Piccinini) są szczególnie wyczuleni na problemy związane 12 z integracją, lecz unifikacja pozostawała w ich ujęciu pozostaje raczej w drugim planie. Po zaprezentowaniu dotychczasowych podejść do integracji i problemów związanych z unifikacją w mechanistycznej koncepcji wyjaśniania omówię zagadnienia dotyczące relacji między integracją a unifikacją. W szczególności istnieją zintegrowane, lecz niezunifikowane wyjaśnienia oraz wyjaśnienia niezintegrowane, lecz zunifikowane (chociaż o ograniczonym zakresie). Podczas gdy zgodnie z tradycyjnym ujęciem zagadnień unifikacji i integracji normą jest dążenie do nich jako ideałów teoretycznych, nie jest to oczywistym ideałem w koncepcji mechanistycznej. Obrońcy mechanistycznej koncepcji wyjaśniania podkreślali, że ich podejście jest nieredukcyjne (a przynajmniej nie prowadzi do redukcji eliminacyjnej), lecz podważali także choćby autonomiczny status psychologii. Aby głębiej wyjaśniać zjawiska psychiczne, należy, ich zdaniem, odwoływać się do mechanizmów za nie odpowiedzialnych, a te nie są jedynie mechanizmami psychicznymi. W moim referacie usystematyzuję te zagadnienia, pokazując, jak mają się one do norm wyjaśniania mechanistycznego w ogóle. Będę bronić tezy, że nawet jeśli istnieją normy wyjaśniania mechanistycznego, wymagające minimalizacji redundancji i maksymalizacji niezmienniczości oraz prostoty, nie wynika z nich wymóg przedwczesnej unifikacji i teoretycznej petryfikacji, które były głównym problemem z tradycyjnym, redukcjonistycznym poglądem na unifikację i integrację. Od logiki diachronicznej do logiki niefregowskiej Omyła Mieczywław Uniwersytet Kardynała Stefana Wyszyńskiego w Warszawie Referat mój jest z zakresu semantycznej teorii poznania. W teorii tej opozycja podmiot poznający - przedmiot poznania reprezentowana jest przez opozycję: język sformalizowany J - model zamierzony M języka J. Logiką diachroniczną nazwał Suszko zastosowania logiki formalnej do badania rozwoju poznania. W semantycznej teorii poznania: nazwom indywiduowym przyporządkowuje się przedmioty z uniwersum zamierzonego modelu języka, predykatom odpowiednie własności bądź relacje. Rodzi się pytanie, co w zamierzonym modelu języka odpowiada zdaniom? Frege uważał, że korelatem semantycznym zdania jest jego wartość logiczna. W klasycznej teorii modeli zwykle przyjmuje się, że formule zdaniowej odpowiada zbiór przedmiotów z uniwersum modelu, które spełniają daną formułę. Przeto zdaniu prawdziwemu odpowiada uniwersum modelu czyli zbiór pełny, a zdaniu fałszywemu zbiór pusty. U źródeł logiki niefregowskiej znajduje się pogląd, że korelatami semantycznymi zdań są przedstawiane przez te zdania sytuacje. 13 W referacie swoim omawiam problem czy i kiedy potrzebujemy zdaniom przypisywać korelaty semantyczne różne od ich wartości logicznych. Z punktu widzenia współczesnej logiki na pytanie to możemy odpowiedzieć w następujący sposób: 1. Jeżeli świat ujmujemy jako zbiór przedmiotów (korelatów semantycznych nazw) posiadających własności i pozostających między sobą w pewnych relacjach, a ponadto świat opisujemy w języku, którego jedynymi spójnikami są spójniki prawdziwościowe czyli klasyczne, to nie ma potrzeby przyjmować, że istnieją korelaty semantyczne zdań różne od ich wartości logicznych. Tak właśnie jest w klasycznej teorii modeli. 2. Jeżeli jednak dla pełniejszego obrazu świata przyjmujemy, że oprócz przedmiotów w świecie istnieją pewne stany rzeczy czyli pewne konfiguracje przedmiotów, które opisujemy w zdaniach, bądź, oprócz spójników prawdziwościowych występują w języku spójniki nieprawdziwościowe, tak jak na przykład , dlatego, że (zdałem egzamin dlatego, że się nauczyłem) to, aby nie zniekształcać intuicji znaczeniowych związanych ze zdaniami musimy zdaniom przypisywać ich korelat semantyczne różne od ich wartości logicznych. Fakt, że język logiki niefregowskiej jest rozszerzeniem standardowego języka rachunku predykatów w którym oprócz zmiennych nazwowych występują zmienne zdaniowe oraz obok spójnika równoważności „↔” występuje spójnik identyczności „=” znacznie zwiększa moc ekspresyjną języka klasycznej logiki predykatów pierwszego rzędu. Czy fizyka kłamie o modalnościach? Placek Tomasz Uniwersytet Jagielloński Jesteśmy intuicyjnie zaznajomieni ze zmieniającymi się w czasie i zależnymi od lokalizacji możliwościami. Problem Humowski to pytanie czy takie możliwości są realne. Wydawałoby się, że danych w tej sprawie może dostarczyć fundamentalna fizyka, w szczególności badanie problemu warunków początkowych w różnych teoriach fizycznych. Będę argumentował, że fizyka nie jest jednak bezstronnym sędzią w tej sprawie: jest uprzedzona co do istnienia realnych możliwości. Pokażę, że uprzedzenie to jest widoczne, po pierwsze, w ogólnych zasadach konstrukcji teorii fizycznej, które ucieleśniają tak zwaną zasadę Hadamarda. Pokażę następnie na przykładach kilka szczegółowych strategii fizyki stosowanych w wypadkach, gdy podstawowe równania teorii dają więcej niż jedno rozwiązanie dla zadanych warunków początkowych. Strategie te po kolei można ująć przy pomocy nastepujących haseł: (1) ten obiekt nie jest układem naszej teorii, (2) w bardziej adekwatnej teorii wieloznaczność na pewno zniknie, (3) te wieloznaczne rozwiązania nie są fizyczne i (4) nie ma różnicy fizycznej między wieloma matematycznymi rozwiązaniami (cechowanie). Tak więc, pytać fizykę czy w świecie są realne możliwości to jest trochę tak jak pytać ulicznego sprzedawcę parasoli czy dziś będzie deszcz. Przy braku lepszego autorytetu pod ręką można to robić, ale odpowiedziom nie należy w pełni wierzyć. 14 Dobre i złe intuicje matematyczne Pogonowski Jerzy Uniwersytet im. Adama Mickiewicza w Poznaniu Odczyt dotyczy objaśnień intuicyjnych w procesach uczenia się i nauczania matematyki. Nie zajmujemy się zatem kontekstem odkrycia (intuicje zawodowych matematyków) ani kontekstem uzasadniania (dedukcja), ale proponujemy do tych dwóch kontekstów dodać trzeci: kontekst transmisji (termin roboczy; szukamy lepszego). Obejmuje on procesy nabywania i przekazywania wiedzy matematycznej. Odnosi się także do postaci, w jakiej przedstawiana jest wiedza matematyczna w podręcznikach oraz tekstach zródłowych. W odczycie skupimy uwage na heurystycznej i perswazyjnej roli objaśnień intuicyjnych, które uzupełniają prezentację wiedzy matematycznej dokonywaną środkami czysto formalnymi, zgodnie z obowiązujacymi standardami. Omówimy różne typy objaśnień intuicyjnych, odwołujące się do: środków językowych, percepcji (głównie rysunków, diagramów, itp.), modeli fizycznych, wiedzy potocznej oraz - co, jak sadzimy, jest najciekawsze - do intuicyjnych objaśnień miedzydziedzinowych, w obrębie samej matematyki. Do ostatniego z tych typów należy np. objaśnianie tworzenia modeli teorii mnogości metodą wymuszania poprzez analogię z rozszerzeniami ciał o elementy przestępne. Rolą objaśnień intuicyjnych jest oczywiście wspomaganie procesu rozumienia pojęć, konstrukcji, twierdzeń, idei matematycznych (zob. cytowana niżej literatura). Istotne dla dydaktyki matematyki, ale także dla rozumienia miejsca matematyki w kulturze jest ustalenie, które objaśnienia intuicyjne są trafne i efektywne, a które raczej zwodnicze i szkodliwe. W programach nauczania matematyki sporo mówi się o konieczności kształtowania (poprawnych) intuicji matematycznych. Od wieku XIX wielokrotnie zmieniano zasady przekazywania wiedzy matematycznej, czasem z katastrofalnymi skutkami (np. program New Math). Sprawą, która nas szczególnie interesuje, jest możliwość terapii matematycznej: takiego wykładu matematyki na poziomie uniwersyteckim (dla studentów kierunków pozamatematycznych), który pomógłby słuchaczom pozbyć się traumatycznych uprzedzeń wobec matematyki, z różnych powodów wyniesionych z edukacji szkolnej. Davis, P.J., Hersh, R. 1981. Mathematical experience. Birkhäuser, Boston. Polya, G. 2014. Mathematics and Plausible Reasoning. Vol. I: Induction and Analogy in Mathematics, Vol. II: Patterns of Plausible Inference. Martino Publishing, Mans-field Centre, CT. Sierpińska, A. 1994. Understanding in Mathematics. The Falmer Press, London. Tall, D. 2013. How Humans Learn to Think Mathematically. Exploring the Three Worlds of Mathematics. Cambridge University Press, Cambridge. Thurston, W. 1994. On proof and progress in mathematics. Bulletin of the American Mathematical Society 30(2), 161-177. 15 Iana G. Barboura koncepcja relacji nauka-wiara Polkowski Łukasz Katolicki Uniwersytet Lubelski Wielokrotnie można się spotkać z poglądem, że nauka i wiara, jako źródła światopoglądu są całkowicie odmienne, a nawet sprzeczne. Szczególnie w epoce Oświecenia zaczęto deprecjonować język teologii, uznając go za nienaukowy. Współcześnie nadal dominuje przekonanie, że badania nauk przyrodniczych opierają się na metodzie eksperymentalnej, którą cechuje metodologiczna ścisłość i niesprzeczność, podczas gdy dociekania teologiczne wydają się wątpliwe i nieobalalne. Ian G. Barbour, zmarły w 2013 roku, był jednym z najbardziej znanych amerykańskich metodologów, badających język dyskursu religijnego i naukowego. W swoich pracach porównywał poszczególne elementy języka religii i nauki. Na tej podstawie w 1974 roku wydał jedno z najważniejszych swoich dzieł pt. Myths, Models and Paradigms, które zostało przetłumaczone na język polski. Barbour porusza w nim trzy główne zagadnienia: funkcje języka religijnego, rolę modeli w nauce oraz rolę paradygmatów w nauce i religii. Autor dochodzi do wniosku, że zarówno język religii, jak i język nauki dostarczają wiedzy opartej na doświadczeniu. Wskazuje również na podobieństwa w konstruowaniu modeli rzeczywistości, występujące w pracy naukowej przyrodnika i teologa. Ponadto, stosując metodologię Thomasa Kuhna, zwraca uwagę na podobieństwa i różnice w przyjmowaniu i odrzucaniu paradygmatów obecnych na gruncie nauki i religii. Celem referatu jest zaprezentowanie wniosków wynikających z prac Iana G. Barboura, które dotyczą relacji nauka - wiara. Reprezentacja strukturalna a eksplanacyjna funkcja matematyki w naukach przyrodniczych Proszewska Agnieszka Uniwersytet Jagielloński Czy matematyka pełni w nauce funkcję eksplanacyjną? Jeśli odpowiedź na to pytanie jest twierdząca, w świetle Rozszerzonego Argumentu Z Niezbywalności Matematyki (Baker 2009), realista znajduje się w posiadaniu mocnego argumentu w sporze o istnienie obiektów matematycznych. Czy jest to jednak jedyna możliwa droga wyjaśnienia faktu „niezwykłej skuteczności matematyki”? W ostatnich latach, w kontekście problemu aplikowalności matematyki w naukach przyrodniczych, popularne stało się podejście strukturalne, zwane „mapowaniem;; (ang. the mapping account), w myśl którego stosowalność matematyki opierać miałaby się na strukturalnych podobieństwach między pewnym systemem empirycznym a pewnym, odpowiadającym mu, modelem matematycznym. Podejście to wymaga założenia o prawdziwości matematycznych twierdzeń, nie wymaga jednak od nas ontologicznego zaangażowania wobec matematycznych obiektów abstrakcyjnych. W ramach referatu postaram się zanalizować stosowalność reprezentacji strukturalnej w naukach przyrodniczych oraz wyznaczyć kryteria takiej stosowalności, jako 16 m.in. opartej na możliwości wyznaczenia relacjii nferencji między zjawiskami empirycznymi a pewną matematyczną strukturą. W tym celu zaprezentuję trzystopniową Inferencyjną Koncepcję Stosowalności Matematyki (Bueno and Colyvan 2011), składającą się z trzech etapów: Immersji, Derywacji i Interpretacji. Omówię również podstawowe problemy tej koncepcji oraz przedyskutuję filozoficzne implikacje roli matematyki w formułowaniu naukowych wyjaśnień. Baker A. (2009): Mathematical Explanation in Science, British Journal for the Philosophy of Science. 60, pp. 611-63. Batterman, R. W. (2010): On the Explanatory Role of Mathematics in Empirical Science, British Journal for the Philosophy of Science, 61, pp. 1-25. Bueno, O. and Colyvan, M. (2011): An Inferential Conception of the Application of Mathematics, Nous 45. Bueno, O., French, S. and Ladyman, J. (2002): On Representing the Relationship Between the Mathematical and the Empirical, Philosophy of Science, 69, pp. 452-73. Saatsi, J. (2011): The Enhanced Indispensability Argument: Representational vs.Explanatory Role of Mathematics in Science, British Journal for the Philosophy of Science. 62, 143-154. Teza o niedookreśleniu teorii przez dane empiryczne a relatywistyczna rewolucja w fizyce Sady Wojciech Uniwersytet Pedagogiczny im. KEN w Krakowie Wiele od czasów Duhema (1906) napisano o niedookreśleniu teorii przez dane empiryczne. Szczególną sławę zyskało twierdzenie Quine’a (1951), iż skoro system teoretyczny konfrontowany jest z wynikami eksperymentów jako całość, to każde pojedyncze zdanie „może obowiązywać niezależnie od doświadczenia, o ile dokonamy dostatecznie daleko idącego przystosowania reszty systemu”. Taki niekonieczny charakter miało, jego zdaniem, m.in. zastąpienie mechaniki Newtona przez relatywistyczną teorię Einsteina. To twierdzenie nie wytrzymuje konfrontacji z faktycznym przebiegiem rewolucji relatywistycznej. Po pierwsze, gdyby Quine miał rację, to trzeba by się spodziewać pojawienia się w latach 1887-1905 wielu konkurencyjnych wersji teoretycznych - tymczasem niemal wszyscy pracujący w tym okresie teoretycy uzyskiwali równoważne równania, a różnice między nimi sprowadzały się jedynie do towarzyszących równaniom wyobrażeń. Po drugie, ta zbieżność matematycznych rezultatów dociekań podlega racjonalnemu wyjaśnieniu. Po eksperymentach Hertza z 1887 r. równania Maxwella, wcześniej przez dwadzieścia lat niedoceniane, zyskały powszechną akceptację, a wszystkie późniejsze eksperymenty bez wyjątku równania te potwierdzały. Jeśli - czysto matematycznie, niezależnie od towarzyszących dociekaniom wyobrażeń o własnościach eteru - stosowano te równania w koniunkcji z transformacjami Galileusza (zachowującymi niezmienniczość równań mechaniki klasycznej), to wynikało z tego, że ruch układu odniesienia powinien wpływać na przebieg procesów elektromagnetycznych. Eksperymenty Arago (1810), Airy’ego (1871), Mascarta (lata 1870-e), Michelsona (1881), 17 Michelsona-Morleya (1887), Lodge’a (1891), Rayleigha (1901), Troutona i Noble’a (1901-1903) świadczyły zgodnie o braku takiego wpływu, a jednocześnie świadczyły o tym, że zjawiska elektromagnetyczne na Ziemi, poruszającej się raz w jedną stonę, a po pół roku w drugą przebiegają zawsze zgodnie z tymi samymi równaniami. Równania Maxwella (a także samo równanie falowe) były niezmiennicze względem tzw. transformacji Lorentza, z dokładnością do dowolnej funkcji prędkości - i takie transfromacje uzyskał Voigt już w 1887. Jeśli przewidywania wynikające z koniunkcji równań Maxwella i transformacji Galileusza okazywały się niezgodne z wynikami eksperymentów, a te same wyniki eksperymentów potwierdzały równania Maxwella, to wynikało stąd, że zmodyfikować należy transformacje czasoprzestrzenne - i nic innego. A z równań Maxwella, uzupełnionych o proste rozważania fizyczne, wynikało, jaką ta modyfikacja miała mieć postać matematyczną. (Faktyczny przebieg dociekań komplikował fakt, że większość teoretyków usiłowała jednocześnie stosować równania mechaniki klasycznej). Argument o niedookreśleniu teorii przez dane empiryczne na gruncie sporu o realizm Seidler Paulina Uniwersytet Warszawski Zgodnie z antyrealistycznym argumentem o niedookreśleniu teorii przez dane empiryczne, dla tej samej bazy danych empirycznych można stworzyć wiele różnych i wzajemnie sprzecznych teorii naukowych, które będą przez owe dane wspierane czy też będą stawiały podobne i sprawdzające się w empirii prognozy. Teorie te będą empirycznie równoważne/obserwacyjnie nierozróżnialne. W takim wypadku nie można mieć nawet najmniejszej pewności czy teorie, które obecnie są akceptowane można uznać za chociażby aproksymacyjnie prawdziwe. Jest to spory problem dla realizmu. Argument o niedookreśleniu teorii przez dane empiryczne jest jednym z ważniejszych, ale mniej dyskutowanych argumentów przeciw naukowemu realizmowi. Prawdopodobnie jest to spowodowane świadomością filozofów nauki, w tym także tych uznających naukowy realizm, że wybór teorii naukowej nie jest całkowicie zdeterminowany przez dostępne dane empiryczne. Wybór teorii naukowej jest zależny od wielu innych czynników. Kolejną kwestia jest to, że problem niedookreślenia jest złożony i nie dotyczy jedynie stanowisk realistycznych, ale wszelkich stanowisk empirystycznych (w tym także antyrealistycznych). Wynika to częściowo ze związku argumentu o niedookreśleniu teorii przez dane empiryczne z wspomnianą już tezą Duhema - Quine’a, która nie jest wymierzona stricte w naukowy realizm. Rozważając argument o niedookreśleniu można dostrzec wiele sposobów uniknięcia odrzucenia postawy realistycznej. Przede wszystkim jest to możliwe przez obalenie jednej z tez składających się na ten argument, tak zwanej tezy empirycznego ekwiwalentu. Inną drogą jest osłabienie argumentu, czyli przez wykazanie, że akceptacja twierdzeń składających się na argument o niedookreśleniu niekoniecznie prowadzi 18 do odrzucenia realizmu. Twierdzenia te są bowiem do uzgodnienia z głównymi założeniami naukowego realizmu. W referacie zostaną omówione tezy składające się na argument o niedookreśleniu teorii przez dane empiryczne a także wersje owego argumentu. Odpowiednio przedstawione zostaną odpowiedzi realistów. Jak zdefiniować wymiar ontologiczny? Skowron Bartłomiej Politechnika Warszawska, Uniwersytet Papieski im. Jana Pawła II w Krakowie W referacie przedstawiam przykład uniwersum ontologicznego w rozumieniu J. Perzanowskiego, tzn. trójki złożonej ze zbioru obiektów, relacji bycia częścią oraz relacji umożliwiana. Materiałem tego uniwersum jest kostka Hilberta wraz z odpowiednio zadanymi relacjami. Kostka Hilberta to kostka o przeliczalnie nieskończenie wielu wymiarach (w sensie topologicznym). W tym modelu uniwersum ontologicznego, oddaję podstawowe pojęcia ontologii kombinacyjnej, jak: superelement, element, substancja, stan rzeczy, świat możliwy, itd. w nowej odsłonie. Wykazuję, że uniwersum to spełnia warunek ontologicznego racjonalizmu w sensie Jerzego Perzanowskiego. Kierując się intuicją, że podstawowe rodzaje obiektów wyróżnionych w ontologice kombinacyjnej Perzanowskiego różnią się co do wewnętrznej charakterystyki, istotnie podobnej do wymiarowości, pokazuję, że superelement jest zero wymiarowym obiektem, sytuacje są wielowymiarowe a światy możliwe są nieskończenie wymiarowymi obiektami (w ustalonym sensie wymiaru, niestety różnym od wymiarów w sensie topologicznych - jest to rodzaj „określoności w wymiarze topologicznym”) w tym uniwersum oraz że ich zbiór jest gęsty, tzn. że domknięcie w naturalnej topologii jest równe całości. Przedstawiane ujęcie jest częścią szerszego programu topologizacji ontologii kombinacyjnej Perzanowskiego, jest zatem istotnym wzbogaceniem ontologii a także ontologiki kombinacyjnej. Przedstawione ujęcie zestawiam z topologizacją uniwersum ontologicznego podaną przez Briana Skyrmsa a rozwijaną przez Thomasa Mormanna. Skyrms i Mormann proponują tzw. odwzorowaniowe podejście do topologizacji podstawowych obiektów ontologicznych, w tym np. światów możliwych. 19 Pejzaż strunowy, czyli współczesne zagrożenie empiryzmu Sokołowski Leszek Uniwersytet Jagielloński Najważniejszym zagadnieniem filozofii w naukach ścisłych jest radykalny przechył w fizyce fundamentalnej na rzecz czysto racjonalistycznego opisu świata. Zjawisko to jest znane z historii fizyki, lecz od ponad trzydziestu lat - od pojawienia się idei teorii strun - zachodzi z natężeniem nieporównywalnym z poprzednikami i zaangażowanych jest w nim sto razy więcej badaczy, tworząc swoisty „paradygmat strunowy”. Teoria ta, mieniąc się fizyczną, łamie fundamentalną dla fizyki równowagę składnika empirycznego (eksperyment i obserwacja) i racjonalistycznego, czyli teoretycznego porządkowania faktów, wyjaśniania ich i przewidywania nowych zjawisk. Teoria strun, nadal w zalążkowej formie, jest skrajnie zmatematyzowaną wizją świata, nie dającą właściwie żadnych sprawdzalnych przewidywań, które według jej zwolenników pojawią się w nieokreślonej przyszłości, tym niemniej już teraz należy uważać ją za ostateczną, fundamentalną teorię materii nieożywionej. Głównym jej przewidywaniem jest istnienie wieloświata (multiverse), dużo większego i bardziej zróżnicowanego od dotychczas wyobrażanego Wszechświata. Przeciwnicy twierdzą, iż teoria ta dostarczy nam mnóstwo bezużytecznej (niesprawdzalnej) wiedzy o niedostępnych częściach wieloświata i nie da zadowalającej odpowiedzi na pytania o własności otaczającego nas świata; iż jest metafizyką przebraną w pojęcia abstrakcyjnej matematyki, by ukryć pesymistyczny pogląd, że dalszy postęp fizyki fundamentalnej jest niemożliwy. Skrajna opinia głosi, iż mamy do czynienia ze zbiorowym szaleństwem rozumu nie poddanego zewnętrznym racjonalnym regułom. Zwolennicy teorii strun są na tyle silni i zdeterminowani, że merytoryczna dyskusja niewiele daje. Krytycy tej teorii potrzebują wsparcia filozofów - konieczna jest szeroka dyskusja: czego faktycznie oczekujemy od teorii fizycznej, jaki ma ona związek z empirią i kiedy uznajemy ją za prawdziwą? Co to jest biologiczna populacja i czy naprawdę istnieje? Stencel Adrian Uniwersytet Jagielloński Ostatnie kilka dekad to był bardzo owocny czas dla filozofii biologii. Rozwój biologii molekularnej sprawił, że nowe koncepcje pojawiały się z dużą częstotliwością, a problemy, które generowały stały się bardzo interesujące dla filozofów z zacięciem biologicznym. Pośród nich były takie zagadnienia jak problemy z definicją genu, którego klasyczne rozumienie zostało podważone. Oprócz tego, do łask wróciły stare problemy filozoficzne w biologii np. co to jest gatunek czy jak wyróżnić z przyrody osobnika, które zyskały nowe oblicze w wyniku odkrycia, że organizmy wielokomórkowe oddziałują z symbiotycznymi mikroorganizmami na wielką skalę. Niestety, jak zostało zauważone w przeciągu kilku ostatnich lat, niektóre ważne zagadnienia nie dostały wystarczająco dużo uwagi. Celem tego referatu będzie analiza filozoficzna jednego z takich pojęć, a mianowicie – populacji biologicznej, która stanowi pewien fundament nauk biologicznych (w końcu osobniki tworzą populacje, a gatunki 20 składają się z populacji). W pierwszej kolejności analizuje kilka definicji populacji, które są popularne wśród biologów, wykazując problemy z ich używaniem. Problemy te, jak zostanie pokazane, są na tyle poważne, że niektórzy uczeni zasugerowali, że populacje nie istnieją realnie. Druga część referatu będzie dotyczyła właśnie tego nurtu. Przedstawię w niej dwa nowe podejścia do kwestii definiowania populacji. Pierwszym jest pluralizm, który mówi, że istnieje wiele alternatywnych sposobów wyróżniania populacji i żaden nie powinien być faworyzowany względem drugiego, a powinny być używanie zamiennie, w zależności od potrzeb. Drugim natomiast mówi, że populacja nie istnieje realnie jako właściwość zbiorowiska osobników, ale jako właściwość osobnika. Złożoność Wszechświata a prostota modelu kosmologicznego - problem ciemnej energii i ciemnej materii w kontekście sporu realizm-antyrealizm w filozofii nauki Tambor Paweł, Skrzydłowski Marek, Krawiec Adam Katolicki Uniwersytet Lubelski, Uniwersytet Jagielloński Można nie bez przesady stwierdzić, że mamy do czynienia z „dialektycznym” rozwojem kosmologii. Z jednej strony nowe eksperymenty i obserwacje pozwalają na coraz dokładniejszą estymację parametrów kosmologicznych (kosmologia wysokiej precyzji); z drugiej strony operujemy pojęciami ciemnej energii czy ciemnej materii bez wglądu w ich naturę; wprowadzane są ponadto niefalsyfikowalne idee np. multiverse. Z metodologicznego punktu widzenia sytuacja jest bardzo specyficzna: zamiast fundamentalnego (kauzalnego) wyjaśnienia oferowany jest fenomenologiczny opis w terminach parametrów. Generuje to także problem degeneracji kosmologii (obserwacje wyznaczają zbiór modeli kosmologicznych, a nie pojedynczy model). Weinberg (Sen o teorii ostatecznej ) sugeruje w związku z tym prowokująco, że studenci nie powinni uczyć się wartościowej wiedzy od filozofów nauki, ale poprzestać na historii swojej dziedziny. W naszym wystąpieniu zadajemy zasadnicze pytanie: czym powinna być w takim razie metodologia kosmologii? Twierdzimy najpierw w ogólności, że powinna być metasystemową refleksją nad praktyką badawczą kosmologów i stosowanymi przez nich metodami, oraz nad budowanymi przez nich modelami (innymi słowy: założeniami i stosowanymi przybliżeniami). Pokażemy w jaki sposób badania historii kosmologii wspierają rozważania metodologiczne (pouczające jest studiowanie historii ewolucji idei kosmologicznych). W kosmologii modele teoretyczne reprezentują badane układy empiryczne, a teorie naukowe są jednymi z wielu konceptualnymi narzędzi, które służą do ich konstrukcji. Przy czym modele teoretyczne zyskują w praktyce badawczej dość dużą autonomię, umożliwiając badanie i przeprowadzanie eksperymentów. W tym kontekście pokażemy, jak z punktu widzenia logiki nauki skuteczne jest wykorzystanie takich narzędzi ich selekcji jak metodologia bayesowska czy kryterium informacyjne Akaike. Po drugie, dla filozofa nauki kosmologia współczesna jest ciekawym polem do dyskusji na temat statusu modeli z punktu widzenia klasycznego w filozofii nauki sporu 21 realizm – antyrealizm. Z jednej strony można powiedzieć, że model kosmologiczny operuje użytecznymi fikcjami (ciemna energia, ciemna materia), z drugiej strony akceleracja ekspansji Wszechświata jest „uchwytna” empirycznie (nie jest fikcją, por. nagroda Nobla dla S. Perlmuttera, B. P. Schmidta i A. G. Riessa w 2011). W naszym wystąpieniu dokonamy modyfikacji stanowisk N. Cartwright (How the Laws of Physics Lie), głoszącej antyrealizm w odniesieniu do praw ogólnych i I. Hackinga (Representing and Intervening), opowiadającego się na realizmem przedmiotów, do których odnoszą się teorie naukowe oraz za antyrealizmem w stosunku do samych teorii. Bronimy zatem tezy antyrealistycznej w odniesieniu do modeli kosmologicznych oraz tezy realistycznej wobec zjawisk fizycznych, które próbujemy opisać za pomocą pojęć ciemnej energii i ciemnej materii. W terminologii A. Groblera nasze stanowisko można nazwać „połowicznym realizmem kosmologicznym” (A. Grobler, Metodologia Nauk ). Sylogistyczny fragment bezkwantyfikatorowego rachunku nazw Wojciechowski Eugeniusz Uniwersytet Rolniczy im. Hugona Kołłątaja w Krakowie Ludwik Borkowski sformułował tzw. bezkwantyfikatorowy rachunek nazw. Jest to bezzałożeniowy rachunek nazw, bogatszy od sylogistyki, mający część wspólną z ontologią elementarną. Proponowany jest tu założeniowo sformułowany system sylogistyki, pozwalający na definicyjne wprowadzenie funktora inkluzji jednostkowej. Na jego gruncie można sformułować specyficzne reguły bezkwantyfikatorowego rachunku nazw, jako reguły wtórne, charakteryzujące funktory: jedyności (sol ), inkluzji jednostkowej (ε), słabej inkluzji (a) i częściowej inkluzji (i ). Kwantowa teoria miary a ontologia zdarzeń: otwarte problemy Woszczek Marek Uniwersytet im. Adama Mickiewicza w Poznaniu Kwantowa teoria miary jest nieprzemienną teorią probabilistyczną, którą można sformułować czysto algebraicznie w języku W*-algebr, tj. domkniętych w ultrasłabej topologii operatorowej *-podalgebr przestrzeni wszystkich ograniczonych operatorów na zespolonej przestrzeni Hilberta, których teorię rozwinęli w latach 30. i 40. XX wieku John von Neumann i Francis J. Murray jako teorię pierścieni operatorowych. Jej własności tak dalece odbiegają od własności klasycznej teorii miary (będącej jej bardzo szczególnym przypadkiem), że z perspektywy ontologii fizyki zasadne jest pytanie, czy ma w ogóle sens mówienie o „kwantowych prawdopodobieństwach” (co kwestionował już Bohr i inni) oraz jak należy rozumieć same „zdarzenia kwantowe”, jeśli przyjąć, że pojęcie zdarzenia ma sens jedynie w obrębie konkretnej ich 22 struktury (probabilistycznej lub nie). Kwantowe struktury wykluczają możliwość swobodnego zdefiniowania prawdopodobieństw warunkowych (kwantowe prawdopodobieństwa warunkowe w ogólności nie istnieją, nie definiuje ich nawet tzw. reguła Lüdersa jako postulat rzutowania), a fundamentalny fenomen kwantowej interferencji jest de facto przejawem drastycznego, fizycznego załamania klasycznej miary probabilistycznej. Już von Neumann w latach 30. zauważył, wbrew powszechnemu konsensusowi odnośnie do rozumienia reguły Borna, że stawia to pod znakiem zapytania użyteczność samych klasycznych intuicji dotyczących prawdopodobieństwa. Zrezygnowanie z radykalnie instrumentalistycznego podejścia do miary kwantowej (motywowane na przykład koniecznością zastosowania teorii kwantowej w kosmologii) wymusza przede wszystkim wypracowanie nowego podejścia do ontologii zdarzenia, co oczywiście bezpośrednio wiąże się z kontrowersyjnym zagadnieniem ontologii stanu kwantowego. Przedstawione zostaną strategie takiego pełnego włączenia nieprzemiennej miary do ontologii kwantowej, wiążące się z porzuceniem intuicji separowalnych, monadycznych zdarzeń jako bazy ontologii, ich zalety i kontrowersyjne aspekty. 23