4. Systemowe ujęcie badań w nauce

Transkrypt

4. Systemowe ujęcie badań w nauce
4. Systemowe ujęcie badań w nauce
Obiekt funkcjonujący w swym otoczeniu - to system dla naszych badań!
CC
4.1 Rozwój współczesnej nauki
Współczesną erę nauk przyrodniczych, poprzedzoną długim czasem alchemii i
wynalezieniem druku przez J Gutenberga (1397 – 1468), można by umownie zacząć od czasu
odkrycia M. Kopernika (1473 – 1543). Miał on dane obserwacyjne i odwagę zakwestionować
teorię Ptolomeusza, że ziemia jest centrum wszechświata, na której to opierała się ówczesna
doktryna teologiczna kościoła katolickiego. Tylko oddalenie od centrów szalejącej w tym
czasie inkwizycji, i zwlekanie przez samego Kopernika z publikacją swej teorii uchroniło go
przed stosem, co niestety nie ominęło jego zwolennika i filozofa we Włoszech G. Bruno
(1548 – 1600). Później żyjący G. Galileusz (1564 –1642), filozof i ojciec ówczesnej fizyki
eksperymentalnej, mógł pracować bo ukrywał do końca życia swe poparcie dla
heliocentrycznej teorii. Później przyszły czasy Koeplera potwierdzające i modyfikujące
teorię heliocentryczną, czasy Newtona, Leibnitza – ojców współczesnej mechaniki klasycznej
i rachunku różniczkowego. Były to solidne podstawy nauk fizykalnych i jak się długo jeszcze
wydawało, nie było żadnych przeszkód dla rozwoju nauki, tym bardziej że stała się ona
zwolna podwaliną współczesnej inżynierii (maszyna parowa, silnik elektryczny,
spalinowy,...) i dla rozwoju technologii. Triumf i rozwój nauki pod koniec 19 tego wieku był
oczywisty dla wielu naukowców. Fizykom zaś wydawało się wtedy iż wystarczy udokładnić
pewne stałe fizyczne, pewne pomiary dodatkowe i cały gmach nauki będzie gotowy. Ale
dopiero wtedy zaczęły się nieszczęścia, pierwsze w 1905 roku A. Einstein opublikował swą
teorię względności, drugie w 1920r. M Planck musiał wprowadzić kwantowanie energii na
poziomie atomowym, bo inaczej jego teoria promieniowania ciała doskonale czarnego się nie
zgadzała. Zapoczątkowało to rozwój mechaniki kwantowej, wspominanej już przez nas, a
opisującej zachowanie się materii na poziomie podstawowym. Nie dość na tym, kolejny cios
spotkał matematykę, która z godnie z projektem Hilberta szykowała się do aksiomatyzacji
całej dziedziny. Tutaj Kurt Goedel, austriacki logik i matematyk wystąpił ze swym
przełomowym twierdzeniem o niekompletności, (incompletness theorem), [Krippendorff ],
które w skrócie brzmi;
‘każdy zwarty system aksjomatyczny zawiera stwierdzenia, które nie są do udowodnienia w
ramach tego systemu’.
Parafrazując można powiedzieć iż żadna dziedzina nie jest samowystarczalna, potrzebuje
pewnych założeń nie do udowodnienia w ramach tej dziedziny, lub też do udowodnienia na
zewnątrz. Stwierdzenie to miało na owe czasy katastrofalne konsekwencje dla samej
matematyki, ale jego waga jest daleko ważniejsza, bo przez analogię znalazło ono
zastosowanie w wielu dziedzinach nauki. Stosując je np. do zagadnień kosmologicznych
można powiedzieć i wielu to dowiodło, że nie da się udowodnić istnienia Boga w ramach
naszej sprawdzonej wiedzy . Ale jeśli założymy, że istnieją byty wyższego rzędu posiadające
świadomość i operujące energiami wyższego rzędu ewolucyjnego, to istnienie Boga jest w
pełni wiarygodne i usprawiedliwione [Cempel97].
Nie koniec jednak na tym, jeśli chodzi o zakręty w rozwoju nauki, bo jak już wspominaliśmy
w 1964 r. Fizyk z Irlandii J. Bell opublikował swe słynne stwierdzenie; ‘reality must be nonlocal’, czyli że na poziomie kwantowym oddziaływania są natychmiastowe, prędkość światła
nie stanowi tu ograniczenia. Jak być może pamiętamy rok temu fizycy amerykańscy uzyskali
w parach cezu (czyli na poziomie makro) prędkości większe od prędkości światła.
Jak to zatem jest z tą nauką, najpierw ustanawia się prawa, zasady, teorie, a potem
przychodzi negujący wstrząs po wstrząsie, zagrażający spoistości z trudem lepionego
gmachu wiedzy ?
Czy my dobrze robimy ustanawiając prawa, zasady, modele ? Jak to jest? To nie tylko coraz
bardziej gęste sito jak słusznie zauważył Feynman, ale to czasami jest rewolucja w nauce.
Przyjrzymy się temu bliżej przez pryzmat paradygmatu w nauce sformułowanego przez T. S.
Kuhn’a w roku 1962.
4.2 Rewolucje i pradygmaty w nauce
Jak widać z powyższego rozwój nauki nie jest procesem ciągłym, idzie drogą ciągło –
skokową. Po niezbędnym okresie akumulacji wiedzy, potrzeba rozwiązania nowych
problemów i ich niestandardowe rozwiązanie prowadzi do kryzysu, do nieznanych wcześniej
pojęć i sposobów myślenia; np. względności ruchu, kwantowania małych energii, itd. Można
z tej sytuacji wyciągnąć dwa wnioski; po pierwsze nauka jest systemem adaptacyjnym,
poprawia własne błędy głównie przez weryfikację eksperymentalną, co już zauważył
Feynman. Po drugie, wyczerpanie możliwości rozwoju w ramach danej interpretacji
rzeczywistości prowadzi do kryzysu i zmiany paradygmatu. Sytuację tę analizował w latach
60 tych T. S. Kuhn, publikując w 1962 główną pozycję współczesnej filozofii nauki; The
structure of Scientific Revolution, [Kuhn01]. Główna teza tego przesłania brzmi;
odkrycia naukowe prowadzą do teorii naukowych, które mogą spowodować kryzysy w
społeczności naukowej. Te kryzysy mogą dalej prowadzić do rewolucji naukowej, która
zmienia pogląd świata (nauki) na dany problem i dziedzinę wiedzy, co wg Kuhna jest zmianą
paradygmatu.
Od tego czasu pojęcie to zrobiło karierę, nie tylko w nauce, mając dziś co najmniej kilka
znaczeń; od modelu mentalnego danego problemu a nawet świata, do; ‘układu pojęć i
przekonań, poprzez który rozumiemy i interpretujemy świat’.
Serię wstrząsów i kryzysów jakie przeżywała fizyka i matematyka już opisaliśmy, do tego
trzeba dodać jeszcze co najmniej dwie fundamentalne zmiany paradygmatu; systemowo1 holistyczny2 w nauce, oraz nowy paradygmat gospodarki i cywilizacji wiedzy, w której
weszliśmy całkiem niedawno. Do tej pory od czasów Newtona i Kartezjusza obowiązywał w
nauce paradygmat redukcjonistyczny, mechanicystyczny, zgodnie z którym o cechach
całości systemu można się dowiedzieć izolując i badając jego części składowe.
Paradygmat systemowy dojrzewał już od lat międzywojennych w biologii, aczkolwiek już
Arystoteles zauważył iż całość to więcej niż suma części. Z drugiej strony w czasie II wojny
światowej przy projektowaniu wielkich operacji, takich jak obrona Anglii, konwojów przez
Atlantyk, itd., (patrz np. [Cempel 2000]), na dużą skalę zastosowano po raz pierwszy
podejście systemowe, holistyczne do tych zagadnień. To, w powiązaniu z innymi
osiągnięciami powojennej nauki; cybernetyka (Wiener, Ashby), teoria gier i rynku (von
Neuman, Morgenstern), teoria informacji (Shanon), dało asumpt do powstania Teorii
Systemów, jako uogólnienia wielu dziedzin, z głównym paradygmatem holistycznym i
podejściem systemowym. Krótko po tym Teoria Systemów znalazła istotne wsparcie ze
strony Inżynierii Systemów, służącej przede wszystkim do holistycznego projektowania
systemów złożonych, z cyklem życia wyrobu ujmującym po raz pierwszy wszystkie etapy
istnienia obiektu; od koncypowania aż do recyklingu i reużytkowania.
Inżynieria Systemów, początkowo uprawiana na potrzeby wojskowości i badań kosmicznych
(pierwsze wykłady w uniwersytetach USA w 1965r), przeszła szybko na użytek cywilny, w
ścisłym związku z późniejszym triumfem technologii informatycznych, projektowania
mechatronicznego i ekologicznego.
Wspomniany już John von NEUMAN zajmował się nie tylko teorią gier, ale pracował
również przy projekcie Manhatan w czasie II wojny światowej, opracował pierwsze
algorytmy obliczeń szeregowych będących podstawą pracy współczesnych komputerów ,
rozwinął teorię automatów komórkowych, prekursorów dzisiejszych obliczeń równoległych, a
1
2
System = byt przejawiający swe istnienie przez synergiczne współdziałanie swych części.
Holizm = pogląd (w skrócie) że zintegrowana całość posiada niezależny byt większy niż suma swych części.
także stworzył podstawy nanotechnologii podając algorytm samo replikującego robota.
Pierwsze komputery (np. ENIAC), duże, zawodne i ciężkie, zmieniły jedynie sposób
myślenia w naukach obliczeniowych, z ciągłego na dyskretny - cyfrowy. Dopiero
wynalezienie tranzystora i obwodów wysokiego stopnia integracji (VLSI) w latach
sześćdziesiątych wprowadziło komputery do badań i przemysłu na masową skalę. W tym
samym czasie gospodarka amerykańska zmieniała zwolna swe oblicze od 1965r, kiedy więcej
niż połowa zatrudnionych zaczęła pracować w usługach opartych na przetwarzaniu
informacji, a nie w przemyśle opartym o masowe wytwarzanie. Dzisiaj mówimy, że w
gospodarce nastąpiła zmiana paradygmatu gospodarowania, z mechanicznego wytwarzania,
będącego podstawą społeczeństwa przemysłowego na organiczne społeczeństwo
zorientowane na usługi w oparciu o technologie informatyczne. Tym samym zwolna zachodzi
zmiana paradygmatu cywilizacyjnego; z cywilizacji przemysłowej na cywilizację
postindustrialną opartą na wiedzy, gdzie jak pisał Toffler wiedza jest substytutem wszystkich
czynników produkcji.
4.3 Nowy paradygmat nauki i cywilizacji
Tradycyjny paradygmat myślenia w nauce można nazwać kartezjańskim (Rene DESCARTES
– po polsku Kartezjusz), newtonowskim lub baconowskim , gdyż jego główne założenia
sformułowane zostały przez Kartezjusza, Newtona i Bacona
Współczesny zaś paradygmat można nazwać holistycznym, ekologicznym, systemowym, ale
żaden z tych przymiotników nie oddaje całkowicie jego natury. Bowiem myślenie według
współczesnego paradygmatu jak wskazuje Capra [Capra 95], kieruje się pięcioma kryteriami,
z których dwa pierwsze odnoszą się do naszego rozumienia natury, a trzy pozostałe do
epistemologii czyli do tworzenia wiedzy, jak to przedstawiono niżej.
1. Zwrot od pojęcia Części ku pojęciu Całości
Myślenie wedle tradycyjnego paradygmatu zakładało, że w wypadku jakiegokolwiek
złożonego systemu dynamikę całości można zrozumieć na podstawie cech
poszczególnych części składowych tejże całości.
We współczesnym paradygmacie następuje odwrócenie relacji części do całości.
Cechy części składowych mogą być zrozumiane tylko na podstawie dynamiki całości.
Stąd części składowe samodzielnie przestają istnieć. To, co nazywamy częścią jest po
prostu funkcjonalnym fragmentem nierozerwalnej sieci relacji.
2. Zwrot od pojęcia Struktury ku pojęciu Procesu
Tradycyjny paradygmat zakładał, że istnieją struktury pierwotne oraz siły i
mechanizmy powodujące ich interakcję, dzięki czemu powstają procesy.
W myśl współczesnego paradygmatu każda struktura rozumiana jest jako przejaw
(efekt) procesu, który w sobie kryje. Sieć relacji jest zaś z natury dynamiczna.
3. Zwrot od pojęcia nauki Obiektywnej ku pojęciu nauki Epistemicznej
Tradycyjny paradygmat zakładał że opisy naukowe są obiektywne, a więc niezależne
od obserwatora i od procesu poznania, tj zastosowanej metodologii badań dla
uzyskania wyniku.
Współczesny paradygmat zakłada że epistemologię, a więc rozumienie procesu
powstawania wiedzy, należy bezpośrednio włączyć w opis badanych zjawisk
naturalnych.
Do tej pory jednak nie ma zgody na temat właściwego charakteru epistemologii, ale
powstaje powszechne przekonanie, że epistemologia musi być integralną częścią
każdej teorii naukowej.
4. Zwrot od pojęcia Budowli ku pojęciu Sieci jako metafory wiedzy
Metafora wiedzy jako budowli, składającej się z fundamentalnych i absolutnych
prawd, zasad, cegiełek konstrukcyjnych, itp., dominowała w nauce i filozofii Zachodu
od tysięcy lat. W okresach zmiany paradygmatu uważano, że załamują się fundamenty
wiedzy. W ujęciu współczesnego paradygmatu metafora budowli zastąpiona zostaje
metaforą3 sieci. Postrzegamy rzeczywistość jako sieć wzajemnych relacji, a opisując
ją także tworzymy sieć wzajemnych relacji zachodzącymi miedzy obserwowanymi
zjawiskami. W sieci takiej nie występują absolutne hierarchie, ani absolutne
fundamenty. Zmiana w jednym węźle sieci odczuwana jest przez wszystkie, ale nie w
tym samym czasie i tej samej intensywności, (chyba że jesteśmy na poziomie
kwantowym).
Co najważniejsze, zwrot od metafory budowli ku metafory sieci zakłada porzucenie
rozumienia fizyki jako ideału służącego ocenie i modelowaniu innych nauk, oraz jako
głównego źródła metafor naukowego opisu.
5. Zwrot od pojęcia Prawdy ku pojęciu Przybliżonego Opisu
Paradygmat kartezjański oparty był na przekonaniu, że wiedza naukowa zdolna jest
nam dać absolutną i ostateczną pewność.
W kontekście współczesnego paradygmatu uważa się, że wszelkie pojęcia, teorie i
odkrycia są ograniczone i przybliżone. Nauka nigdy nie zapewni całościowego i
ostatecznego zrozumienia rzeczywistości. Bowiem, naukowcy nie zajmują się
prawdą (w sensie całkowitej zgodności między opisem a opisywanym zjawiskiem),
ale ograniczonymi i przybliżonymi opisami rzeczywistości, które w ślad za Popper’em
należy poddawać ciągłej falsyfikacji4.
Dla lepszego zrozumienia powyższej zmiany paradygmatu, dogodnie jest ją przedstawić na
tle dotychczasowych zmian paradygmatu cywilizacyjnego ludzkości. W technologii i
gospodarce takie zmiany paradygmatu zachodzą znacznie szybciej, zwłaszcza ostatnio. Wg
Freeman’a, [Freeman 95], pierwszy w dziejach ludzkości paradygmat technologii i
gospodarki oparty był na siłach przyrody, w szczególności mięśni ludzkich, zwierzęcych,
potem wiatru i wody. Siła parowa jako drugi paradygmat wkroczyła z wolna na arenę
gospodarki w XVIII wieku. Siłę elektryczną jako trzeci paradygmat wprowadzono w XIX,
wieku gdy pod jego koniec opanowano już generowanie i przesyłanie dużych mocy
elektrycznych (Tesla). Zasady masowej produkcji - czwarty paradygmat - stosowano w
przemysłach pakowania żywności i samochodowym dziesiątki lat, zanim przemysły te
zdobyły dominację. Obecny piąty paradygmat gospodarki, technologie informacyjne, są
rozwijane od drugiej wojny światowej (wg Freeman’a), a dopiero teraz widać, że stały się one
motorem napędowym badań, technologii i gospodarki. Nie jest zatem zbyt wcześnie wg
Freeman’a, by już teraz zastanowić się nad technologią i instytucjami generującymi
przyszłościowy szósty paradygmat, który musi być przyjazny ludziom i środowisku, czyli
'bio - environment friendly'.
4.4 Przesłanki i implikacje nowego paradygmatu w nauce
Wyłonienie się nowego paradygmatu w nauce i gospodarce było skutkiem
zachodzących przemian w myśleniu elit ludzkości. Skupiając się na nauce, przypomnijmy
sobie najważniejsze punkty zwrotne prowadzące do niedawnej zmiany paradygmatu
redukcjonistycznego na holistyczno - systemowy. Teoria względności Einsteina, czyli
względności ruchu i obserwatora pokazała przez analogię, iż w nauce może nie być nic
stałego, wszystko płynie; ‘panta rei’ jak to już zauważył Heraklit ponad 2,5 tysiąca lat temu.
Jedyną stałą rzeczą jest zmiana. Potem przyszło kwantowanie energii i działania Plancka z
mechaniką kwantową, które nietrudno rozciągnąć na inne dziedziny poznania i działania
ludzkości. Pokazał to w niedługim czasie W. Heisenberg w swej słynnej zasadzie
nieokreśloności (nieoznaczoności), [Jaworski 71s848], gdzie na poziomie atomowym
3
Metafora = figura stylistyczna, w której jeden przynajmniej wyraz uzyskuje inne obrazowe, ale pokrewne
znaczenie; przenośnia.
4
Falsyfikacja – próba dowiedzenia fałszywości danego stwierdzenia.
działanie (iloczyn czasu i energii) jest kwantowane. Znaczy to że nie może być mniejsze niż
jeden kwant, a wiec możemy mówić, a zwłaszcza liczyć i mierzyć, tylko z dokładnością do
jednego kwantu działania (h/2π, h - stała Plancka). To odkrycie braku ciągłości ma swe
dalsze implikacje w innych dziedzinach wiedzy, bo nawet w fizyce mówi się, że jeśli
jakikolwiek iloczyn wielkości jest wyrażony jako działanie, np. położenie i pęd, to zasada
nieokreśloności ma tu proste przeniesienie.
Nie tylko w fizyce, ale i w teorii sygnałów pokazano np. , że czas trwania fragmentu procesu
i jego przedstawienie widmowe w dziedzinie częstości podlegają tej samej zasadzie nie
określoności, i można by to podejście mnożyć szukając przedziałów nie rozróżnialności
wielu wielkości mierzalnych, (plus szum termiczny), w technice, psychologii, socjologii,
itd., (np. [Francois 97s382]). Na poziomie semantycznym dołącza się tu i powiększa
zamieszanie i niepewność twierdzenie Goedla o niekompletności systemów aksjomatycznych
(logika, matematyka), które przez analogię można rozciągnąć na dowolne systemy
symboliczne (ideologia, język, itp.), mówiąc obrazowo w ślad za [ Penrose 96s347 ],
potrzebujemy wtedy każdorazowo haczyka z nieba.
Prawdziwe zamieszanie w identyfikacji procesów, i zachowania się dużych systemów
powoduje zjawisko nieliniowości, warte pokazania tak jak na rysunku 4.1 i specjalnego
omówienia. Jak widać z rysunku, w pierwszym zakresie zmienności atrybutów wzajemna
zależność jest bardzo słaba i łatwo może być pominięta w badaniach identyfikacyjnych. W
środkowym zakresie zmienności zależność jest licząca się, a znowu marginalna w zakresie
trzecim. Wystarczy zatem iż pierwotne badania były przeprowadzone w zakresach 1 bądź 3, a
całościowe zachowanie się systemu będzie dla nas kompletną niespodzianką.
Bo w istocie przyjęliśmy założenie o braku zależności atrybutów.
Rys. 4.1. Ilustracja zjawiska nieliniowej zależności między dwoma cechami systemu,
[Cempel2000,r4.7].
Nieliniowości w układach i systemach deterministycznych to nie tylko
nierozpoznane ich zachowanie się, ale i zachowanie przypadkowe, chaotyczne5.
Przypadkowe zachowanie się wielu zjawisk w naturze, np. turbulencja cieczy, itp., nie
jest niczym dziwnym, dziwny jest natomiast tzw. chaos deterministyczny, odkryty
niedawno w bardzo prostych modelach i układach, jeśli tylko są nieliniowe i pracują w
pewnych zakresach parametrów. Takie dziwne zachowanie się układów było czasami
postrzegane w badaniach naukowych, ale nikt do czasów Lorenz’a z MIT w USA
(początek lat 60 tych) nie przebadał tej sprawy gruntownie, chyba dlatego że posiadał
on na swój użytek jeden z pierwszych komputerów, [Stewart94]. Pracował on w tym
czasie nad prognozowaniem pogody z trzema bardzo prostymi nieliniowymi
równaniami różniczkowymi. Okazało się, że w pewnych zakresach zmiennych,
rozwiązania (pogoda) zależą od rodzaju zaokrągleń pośrednich i punktu startu. Wpływ
ten był na tyle silny że Lorenz nazwał go efektem motyla (buterfly), tzn że np.
trzepotanie skrzydeł motyla na Alasce może zmienić pogodę w Bostonie. Odkryto
potem wiele tego typu zachowań chaotycznych układów deterministycznych, powstała
matematyka i dynamika chaotyczna, nauczono się parametryzować zachowania
chaotyczne np. przez miary Poincare. Odkryto również ze zjawisko chaosu
deterministycznego jest bliskim kuzynem struktur samo podobnych, tzw. fraktali6, że
razem opisują one tzw. strukturę nieregularności.
Można by tu jeszcze mnożyć niespodzianki, niejednoznaczności i dziwności w nauce. Stąd
też u wielu naukowców powstało przekonanie iż dobra teoria jest taka, którą jeszcze nikt nie
zaprzeczył. Jednak do Karla POPPER7’a należy bezsprzecznie wyartykułowanie konieczności
falsyfikacji każdej teorii naukowej, [Francois95,s135]. W późniejszych dyskusjach
filozoficznych na ten temat część filozofów nie zgadzała się z tak twardym wymogiem
falsyfikacji. Wyróżnił się tu szczególnie I. Lakatos, który sformułował alternatywną
metodologię programów badawczych, ale nie będziemy się tym dalej zajmować,
[Chmielewski95]. To kryterium sprawdzalności czy też falsyfikalności, [Popper95], zostało w
pełni przyjęte przez świat nauki. A jak stwierdził David BOHM, angielski noblista fizyk,
‘kolejne udane eksperymenty potwierdzające teorię zwiększają jedynie nasz stopień
wiarygodności do niej, ale nigdy nie czynią ją prawdziwą’.
4.5 Podsumowanie
Nakreślono skrótowo rozwój współczesnej nauki, z jego wstrząsami w fizyce i
matematyce na początku 20 wieku, co potem doprowadziło do zmiany paradygmatu z
redukcjonistycznego do holistycznego – systemowego. Te zmianę paradygmatu
przedstawiono szerzej; pokazując podobne przesłanki i implikacje słuszne w różnych
dziedzinach wiedzy. Wyłania się tu zwolna hierarchia narzędzi konieczna do stosowania w
nauce;
paradygmat ⇒ metodologia ⇒ metoda ⇒ metodyka ⇒ narzędzia badawcze.
Podsumowaniem i dopełnieniem tego można uznać zasadę falsyfikacji każdego stwierdzenia
naukowego przedstawioną przez Popper’a.
5
Chaos = zjawisko nieuporządkowane, całkowicie nie do przewidzenia.
Fraktale = twory geometryczne w różnej skali samopodobne, np. płatek śniegu, dobrze rozgałęzione drzewo,
linia brzegowa, itp.
7
K. Popper = sławny angielski filozof nauki zajmujący się epistemologią, mianowany lordem, (Austriak z
pochodzenia).
6
4.6 Problemy
1. Przedstaw dalsze implikacje twierdzenia Bell’a o nielokalności.
Co wiesz o Energii Punktu Zerowego (zero point energy), jak to można
wykorzystać ?

Podobne dokumenty