Komputery w badaniach doświadczalnych a nowy
Transkrypt
Komputery w badaniach doświadczalnych a nowy
Propozycja referatu na XXVII JESIENNE SPOTKANIA PTI (17-20 października 2011) Temat: Komputery w badaniach doświadczalnych a nowy eksperymentalizm Autor: dr Sławomir Leciejewski (adiunkt w Zakładzie Logiki i Metodologii Nauk Instytutu Filizofii Uniwersytetu im. Adama Mickiewicza w Poznaniu) Abstrakt (czas referatu to około 30 minut): Wszechstronnej analizy badao eksperymentalnych dokonali autorzy zaliczeni do nurtu nowego eksperymentalizmu: I.Hacking, A.Franklin i P.Galison. W swoich analizach dokonali oni przede wszystkim dowartościowania praktyki eksperymentalnej w badaniach naukowych. Reprezentują oni także nowy sposób uprawiania metodologii, który nie ogranicza się tylko do rozważao teoretycznych a związany jest niejednokrotnie z czynnym uczestnictwem przedstawicieli tego nurtu w pracy eksperymentalnej. Autorzy ci wyciągają wnioski dotyczące badao eksperymentalnych oraz formułują swoje postulaty metodologiczne w kontekście własnych obserwacji praktyki laboratoryjnej. Przedstawiciele nowego eksperymentalizmu są zdania, że eksperymentowanie we współczesnej nauce staje się w dużym stopniu działalnością autonomiczną. Świadczyd na korzyśd tej tezy mają: dychotomia „kultur teoretycznych” i „kultur eksperymentalnych”, bliskośd pracy eksperymentalnej z techniką i technologią oraz a-teoretycznośd niektórych praktyk badawczych (np. PEGGY II). Ważną rolą jaką ma spełniad eksperyment, według przedstawicieli nowego eksperymentalizmu, jest kreowanie nowych zjawisk, takich, które nie mogą występowad w przyrodzie w stanie czystym. I.Hacking uważa, że eksperymentowad – znaczy wytwarzad, produkowad, doskonalid i stabilizowad zjawiska. Postulatem trzech, wyżej wymienionych, autorów jest przyznanie zasadniczej roli w eksperymentalnym badaniu naukowym manipulowaniu, działaniu, ingerencji (intervening). Według A.Franklina w nauce dośd często zdarzają się przypadki, gdy eksperyment wskazuje potrzebę nowej teorii (np. badania nad niezachowaniem parzystości). Są także eksperymenty pomiarowe, które niekoniecznie muszą byd „mocno” zaangażowane teoretycznie (XIX-sto wieczna spektroskopia). I.Hacking proponuje nową wizję nauki; wizję, w której nauka staje się nie tyle wiedzą, ile praktyką. W myśl tej wizji nauka nie ogranicza się tylko do teorii (jak w tradycji empiryzmu logicznego), czy paradygmatów (jak w propozycji Kuhna). Hacking kładzie silny nacisk na duże bogactwo tego, co mieści się w ramach prac laboratoryjnych. Przedstawia 1 taksonomiczny schemat tych prac, w którym wyróżnia piętnaście elementów pozostających ze sobą w różnych związkach. Elementy te dzieli na trzy grupy: I. II. III. idee (pytania, tło wiedzy, systematyczna teoria, lokalne hipotezy, modelowanie aparatury), rzeczy (obiekt badania, źródła modyfikacji, detektory, narzędzia, sprawcy danych), znaki (dane, oszacowywanie danych, redukowanie danych, analizowanie danych, interpretacja). Tak zarysowana taksonomia badao eksperymentalnych stanie się w moim referacie swoistym punktem odniesienia, względem którego będę przeprowadzał filozoficzne i metodologiczne analizy współczesnych badao eksperymentalnych wspomaganych komputerowo. W taksonomii Hackinga nie pojawia się jednak komputer jako narzędzie pracy laboratoryjnej, warto zatem zapytad, jak koncepcja nowego eksperymentalizmu ma się do współczesnej praktyki badawczej, do badao eksperymentalnych wspomaganych komputerowo? W przypadku eksperymentu wykorzystującego współczesne techniki informatyczne mamy do czynienia z trzema wzajemnie na siebie oddziałującymi czynnikami: eksperymentatorem (podmiotem – P) projektującym eksperyment i interpretującym jego wyniki, badanym obiektem (O), tj. przedmiotem badao doświadczalnych (np. zjawiskiem, procesem itp.), tym, co pośredniczy między P i O, tj. z systemem automatyzacji badao doświadczalnych (abd). Częścią systemu automatyzacji badao doświadczalnych może byd tzw. komputerowe wspomaganie badao doświadczalnych (kwbd). Jest to ogół metod i środków służących usprawnieniu procesów pobierania informacji o badanym obiekcie i jej przetwarzania za pomocą środków techniki komputerowej. System kwbd jest integralną (a niekiedy główną) częścią składową abd. W skład układu eksperymentalnego wykorzystującego komputer (kwbd) wchodzą: detektory, urządzenia pomiarowe, sprzęgi (interface), komputer (hardware i software), regulatory, urządzenia wykonawcze. Tak detektory, urządzenia pomiarowe, jak i regulatory, urządzenia wykonawcze, były powszechnie używane w praktyce eksperymentalnej od jej zarania (dawniej jedynie były mniej złożone technicznie). Od niedawna jednak w laboratoriach pojawiły się komputery, które coraz powszechniej i z sukcesami, stosowane są we wszystkich naukach empirycznych. W drugiej części referatu zajmę się analizą tylko nowych elementów układu eksperymentalnego, tzn. przeanalizuję rolę sprzęgów i komputera (tak jego stronę sprzętową jak i oprogramowanie) w eksperymentalnej pracy badawczej. Tym samym, w tej 2 części referatu, przeanalizuję specyfikę współczesnego sposobu eksperymentowania, która wynika z coraz powszechniejszego stosowania technik informatycznych. Dzięki zastosowaniu systemów abd i podsystemów kwbd niewątpliwie zwiększa się „odległośd” pomiędzy podmiotem eksperymentu (P) a jego przedmiotem (O). Warto zatem zastanowid się, czy taka zwiększona „odległośd” może mied wpływ na wyniki eksperymentów przeprowadzanych z użyciem komputerów. Ponadto interpretacja wyników uzyskanych w eksperymentach z kwbd w świetle założonej (i zaprogramowanej w systemie komputerowym) teorii, w myśl której interpretujemy te wyniki, jest ułatwiona i wręcz natychmiastowa. Uzyskanie korelacji wyników eksperymentalnych z teorią przy braku kwbd jest często bardzo czasochłonne; systemy komputerowe niewątpliwie przyspieszają proces porównania teorii z danymi empirycznymi, a dzięki zastosowaniu specyficznych metod numerycznych, w niektórych przypadkach, wręcz w ogóle umożliwiają takie porównanie. Okazuje się także, że wobec niemożności uzyskania analitycznych rozwiązao niektórych problemów badawczych, podmiot eksperymentujący, aby uzasadnid wyniki obserwacji, zmuszony jest do zmiany sposobu uzasadniania. Jest ono czasem możliwe tylko dzięki zastosowaniu metod numerycznych. Zatem zastosowanie komputerów umożliwia także numeryczne uzasadnianie pewnych hipotez, których uzasadnienie analityczne wcześniej nie było możliwe. Istniejące systemy kwbd pozwalają zautomatyzowad i ogromnie przyspieszyd proste, lecz żmudne prace laboratoryjne. Są one w stanie wychwycid istotne prawidłowości numeryczne z mnóstwa danych obarczonych błędem pomiaru. Dzięki zastosowaniu sprzężonych z komputerem manipulatorów i sensorów, systemy takie są już w stanie same sterowad wykonywaniem prostych eksperymentów. Warto zatem zastanowid się, czy zastosowanie kwbd wprowadza do eksperymentów tylko niepodlegające dyskusji zmiany ilościowe, czy także mamy tu do czynienia ze zmianami jakościowymi? Czy zmienia się „odległośd” pomiędzy podmiotem a przedmiotem eksperymentu dzięki zastosowaniu sprzęgów (interfece)? Czy interpretacja wyników eksperymentów z kwbd różni się od interpretacji wyników klasycznych badao empirycznych? Czy zastosowanie metod numerycznych wprowadza inny rodzaj uzasadniania hipotez naukowych? Czy potrzebna jest nowa metodologiczna kategoria – uzasadnianie numeryczne? Czy zatem status eksperymentatora w naukach empirycznych zmienia się w sposób jakościowy w przypadku, gdy eksperyment czy teoretyczne badanie naukowe jest wspomagane przez współczesne techniki informatyczne? A ponadto: jak to wszystko ma się do najnowszej koncepcji metodologicznej analizującej pracę laboratoryjną – do nowego eksperymentalizmu? Czy ta koncepcja metodologiczna nadaje się do analizy współczesnych badao doświadczalnych wspomaganych komputerowo? W moim referacie znajdą się odpowiedzi na te i tym podobne pytania. 3