Komputery w badaniach doświadczalnych a nowy

Transkrypt

Komputery w badaniach doświadczalnych a nowy
Propozycja referatu
na XXVII JESIENNE SPOTKANIA PTI (17-20 października 2011)
Temat:
Komputery w badaniach doświadczalnych a nowy eksperymentalizm
Autor:
dr Sławomir Leciejewski (adiunkt w Zakładzie Logiki i Metodologii Nauk Instytutu Filizofii
Uniwersytetu im. Adama Mickiewicza w Poznaniu)
Abstrakt (czas referatu to około 30 minut):
Wszechstronnej analizy badao eksperymentalnych dokonali autorzy zaliczeni do
nurtu nowego eksperymentalizmu: I.Hacking, A.Franklin i P.Galison. W swoich analizach
dokonali oni przede wszystkim dowartościowania praktyki eksperymentalnej w badaniach
naukowych. Reprezentują oni także nowy sposób uprawiania metodologii, który nie
ogranicza się tylko do rozważao teoretycznych a związany jest niejednokrotnie z czynnym
uczestnictwem przedstawicieli tego nurtu w pracy eksperymentalnej. Autorzy ci wyciągają
wnioski dotyczące badao eksperymentalnych oraz formułują swoje postulaty
metodologiczne w kontekście własnych obserwacji praktyki laboratoryjnej.
Przedstawiciele nowego eksperymentalizmu są zdania, że eksperymentowanie we
współczesnej nauce staje się w dużym stopniu działalnością autonomiczną. Świadczyd na
korzyśd tej tezy mają: dychotomia „kultur teoretycznych” i „kultur eksperymentalnych”,
bliskośd pracy eksperymentalnej z techniką i technologią oraz a-teoretycznośd niektórych
praktyk badawczych (np. PEGGY II).
Ważną rolą jaką ma spełniad eksperyment, według przedstawicieli nowego
eksperymentalizmu, jest kreowanie nowych zjawisk, takich, które nie mogą występowad w
przyrodzie w stanie czystym. I.Hacking uważa, że eksperymentowad – znaczy wytwarzad,
produkowad, doskonalid i stabilizowad zjawiska. Postulatem trzech, wyżej wymienionych,
autorów jest przyznanie zasadniczej roli w eksperymentalnym badaniu naukowym
manipulowaniu, działaniu, ingerencji (intervening).
Według A.Franklina w nauce dośd często zdarzają się przypadki, gdy eksperyment
wskazuje potrzebę nowej teorii (np. badania nad niezachowaniem parzystości). Są także
eksperymenty pomiarowe, które niekoniecznie muszą byd „mocno” zaangażowane
teoretycznie (XIX-sto wieczna spektroskopia).
I.Hacking proponuje nową wizję nauki; wizję, w której nauka staje się nie tyle wiedzą,
ile praktyką. W myśl tej wizji nauka nie ogranicza się tylko do teorii (jak w tradycji empiryzmu
logicznego), czy paradygmatów (jak w propozycji Kuhna). Hacking kładzie silny nacisk na
duże bogactwo tego, co mieści się w ramach prac laboratoryjnych. Przedstawia
1
taksonomiczny schemat tych prac, w którym wyróżnia piętnaście elementów pozostających
ze sobą w różnych związkach. Elementy te dzieli na trzy grupy:
I.
II.
III.
idee (pytania, tło wiedzy, systematyczna teoria, lokalne hipotezy,
modelowanie aparatury),
rzeczy (obiekt badania, źródła modyfikacji, detektory, narzędzia, sprawcy
danych),
znaki (dane, oszacowywanie danych, redukowanie danych, analizowanie
danych, interpretacja).
Tak zarysowana taksonomia badao eksperymentalnych stanie się w moim referacie
swoistym punktem odniesienia, względem którego będę przeprowadzał filozoficzne i
metodologiczne analizy współczesnych badao eksperymentalnych wspomaganych
komputerowo. W taksonomii Hackinga nie pojawia się jednak komputer jako narzędzie pracy
laboratoryjnej, warto zatem zapytad, jak koncepcja nowego eksperymentalizmu ma się do
współczesnej praktyki badawczej, do badao eksperymentalnych wspomaganych
komputerowo?
W przypadku eksperymentu wykorzystującego współczesne techniki informatyczne
mamy do czynienia z trzema wzajemnie na siebie oddziałującymi czynnikami:

eksperymentatorem (podmiotem – P) projektującym eksperyment
i interpretującym jego wyniki,

badanym obiektem (O), tj. przedmiotem badao doświadczalnych (np. zjawiskiem,
procesem itp.),

tym, co pośredniczy między P i O, tj. z systemem automatyzacji badao
doświadczalnych (abd).
Częścią systemu automatyzacji badao doświadczalnych może byd tzw. komputerowe
wspomaganie badao doświadczalnych (kwbd). Jest to ogół metod i środków służących
usprawnieniu procesów pobierania informacji o badanym obiekcie i jej przetwarzania za
pomocą środków techniki komputerowej. System kwbd jest integralną (a niekiedy główną)
częścią składową abd.
W skład układu eksperymentalnego wykorzystującego komputer (kwbd) wchodzą:
detektory, urządzenia pomiarowe, sprzęgi (interface), komputer (hardware i software),
regulatory, urządzenia wykonawcze. Tak detektory, urządzenia pomiarowe, jak i regulatory,
urządzenia wykonawcze, były powszechnie używane w praktyce eksperymentalnej od jej
zarania (dawniej jedynie były mniej złożone technicznie). Od niedawna jednak w
laboratoriach pojawiły się komputery, które coraz powszechniej i z sukcesami, stosowane są
we wszystkich naukach empirycznych.
W drugiej części referatu zajmę się analizą tylko nowych elementów układu
eksperymentalnego, tzn. przeanalizuję rolę sprzęgów i komputera (tak jego stronę
sprzętową jak i oprogramowanie) w eksperymentalnej pracy badawczej. Tym samym, w tej
2
części referatu, przeanalizuję specyfikę współczesnego sposobu eksperymentowania, która
wynika z coraz powszechniejszego stosowania technik informatycznych.
Dzięki zastosowaniu systemów abd i podsystemów kwbd niewątpliwie zwiększa się
„odległośd” pomiędzy podmiotem eksperymentu (P) a jego przedmiotem (O). Warto zatem
zastanowid się, czy taka zwiększona „odległośd” może mied wpływ na wyniki eksperymentów
przeprowadzanych z użyciem komputerów. Ponadto interpretacja wyników uzyskanych w
eksperymentach z kwbd w świetle założonej (i zaprogramowanej w systemie
komputerowym) teorii, w myśl której interpretujemy te wyniki, jest ułatwiona i wręcz
natychmiastowa. Uzyskanie korelacji wyników eksperymentalnych z teorią przy braku kwbd
jest często bardzo czasochłonne; systemy komputerowe niewątpliwie przyspieszają proces
porównania teorii z danymi empirycznymi, a dzięki zastosowaniu specyficznych metod
numerycznych, w niektórych przypadkach, wręcz w ogóle umożliwiają takie porównanie.
Okazuje się także, że wobec niemożności uzyskania analitycznych rozwiązao niektórych
problemów badawczych, podmiot eksperymentujący, aby uzasadnid wyniki obserwacji,
zmuszony jest do zmiany sposobu uzasadniania. Jest ono czasem możliwe tylko dzięki
zastosowaniu metod numerycznych. Zatem zastosowanie komputerów umożliwia także
numeryczne uzasadnianie pewnych hipotez, których uzasadnienie analityczne wcześniej nie
było możliwe.
Istniejące systemy kwbd pozwalają zautomatyzowad i ogromnie przyspieszyd proste,
lecz żmudne prace laboratoryjne. Są one w stanie wychwycid istotne prawidłowości
numeryczne z mnóstwa danych obarczonych błędem pomiaru. Dzięki zastosowaniu
sprzężonych z komputerem manipulatorów i sensorów, systemy takie są już w stanie same
sterowad wykonywaniem prostych eksperymentów.
Warto zatem zastanowid się, czy zastosowanie kwbd wprowadza do eksperymentów
tylko niepodlegające dyskusji zmiany ilościowe, czy także mamy tu do czynienia ze zmianami
jakościowymi? Czy zmienia się „odległośd” pomiędzy podmiotem a przedmiotem
eksperymentu dzięki zastosowaniu sprzęgów (interfece)? Czy interpretacja wyników
eksperymentów z kwbd różni się od interpretacji wyników klasycznych badao empirycznych?
Czy zastosowanie metod numerycznych wprowadza inny rodzaj uzasadniania hipotez
naukowych? Czy potrzebna jest nowa metodologiczna kategoria – uzasadnianie
numeryczne? Czy zatem status eksperymentatora w naukach empirycznych zmienia się w
sposób jakościowy w przypadku, gdy eksperyment czy teoretyczne badanie naukowe jest
wspomagane przez współczesne techniki informatyczne? A ponadto: jak to wszystko ma się
do najnowszej koncepcji metodologicznej analizującej pracę laboratoryjną – do nowego
eksperymentalizmu? Czy ta koncepcja metodologiczna nadaje się do analizy współczesnych
badao doświadczalnych wspomaganych komputerowo?
W moim referacie znajdą się odpowiedzi na te i tym podobne pytania.
3