4. Systemowe ujęcie badań w nauce
Transkrypt
4. Systemowe ujęcie badań w nauce
4. Systemowe ujęcie badań w nauce Obiekt funkcjonujący w swym otoczeniu - to system dla naszych badań! CC 4.1 Rozwój współczesnej nauki Współczesną erę nauk przyrodniczych, poprzedzoną długim czasem alchemii i wynalezieniem druku przez J Gutenberga (1397 – 1468), można by umownie zacząć od czasu odkrycia M. Kopernika (1473 – 1543). Miał on dane obserwacyjne i odwagę zakwestionować teorię Ptolomeusza, że ziemia jest centrum wszechświata, na której to opierała się ówczesna doktryna teologiczna kościoła katolickiego. Tylko oddalenie od centrów szalejącej w tym czasie inkwizycji, i zwlekanie przez samego Kopernika z publikacją swej teorii uchroniło go przed stosem, co niestety nie ominęło jego zwolennika i filozofa we Włoszech G. Bruno (1548 – 1600). Później żyjący G. Galileusz (1564 –1642), filozof i ojciec ówczesnej fizyki eksperymentalnej, mógł pracować bo ukrywał do końca życia swe poparcie dla heliocentrycznej teorii. Później przyszły czasy Koeplera potwierdzające i modyfikujące teorię heliocentryczną, czasy Newtona, Leibnitza – ojców współczesnej mechaniki klasycznej i rachunku różniczkowego. Były to solidne podstawy nauk fizykalnych i jak się długo jeszcze wydawało, nie było żadnych przeszkód dla rozwoju nauki, tym bardziej że stała się ona zwolna podwaliną współczesnej inżynierii (maszyna parowa, silnik elektryczny, spalinowy,...) i dla rozwoju technologii. Triumf i rozwój nauki pod koniec 19 tego wieku był oczywisty dla wielu naukowców. Fizykom zaś wydawało się wtedy iż wystarczy udokładnić pewne stałe fizyczne, pewne pomiary dodatkowe i cały gmach nauki będzie gotowy. Ale dopiero wtedy zaczęły się nieszczęścia, pierwsze w 1905 roku A. Einstein opublikował swą teorię względności, drugie w 1920r. M Planck musiał wprowadzić kwantowanie energii na poziomie atomowym, bo inaczej jego teoria promieniowania ciała doskonale czarnego się nie zgadzała. Zapoczątkowało to rozwój mechaniki kwantowej, wspominanej już przez nas, a opisującej zachowanie się materii na poziomie podstawowym. Nie dość na tym, kolejny cios spotkał matematykę, która z godnie z projektem Hilberta szykowała się do aksiomatyzacji całej dziedziny. Tutaj Kurt Goedel, austriacki logik i matematyk wystąpił ze swym przełomowym twierdzeniem o niekompletności, (incompletness theorem), [Krippendorff ], które w skrócie brzmi; ‘każdy zwarty system aksjomatyczny zawiera stwierdzenia, które nie są do udowodnienia w ramach tego systemu’. Parafrazując można powiedzieć iż żadna dziedzina nie jest samowystarczalna, potrzebuje pewnych założeń nie do udowodnienia w ramach tej dziedziny, lub też do udowodnienia na zewnątrz. Stwierdzenie to miało na owe czasy katastrofalne konsekwencje dla samej matematyki, ale jego waga jest daleko ważniejsza, bo przez analogię znalazło ono zastosowanie w wielu dziedzinach nauki. Stosując je np. do zagadnień kosmologicznych można powiedzieć i wielu to dowiodło, że nie da się udowodnić istnienia Boga w ramach naszej sprawdzonej wiedzy . Ale jeśli założymy, że istnieją byty wyższego rzędu posiadające świadomość i operujące energiami wyższego rzędu ewolucyjnego, to istnienie Boga jest w pełni wiarygodne i usprawiedliwione [Cempel97]. Nie koniec jednak na tym, jeśli chodzi o zakręty w rozwoju nauki, bo jak już wspominaliśmy w 1964 r. Fizyk z Irlandii J. Bell opublikował swe słynne stwierdzenie; ‘reality must be nonlocal’, czyli że na poziomie kwantowym oddziaływania są natychmiastowe, prędkość światła nie stanowi tu ograniczenia. Jak być może pamiętamy rok temu fizycy amerykańscy uzyskali w parach cezu (czyli na poziomie makro) prędkości większe od prędkości światła. Jak to zatem jest z tą nauką, najpierw ustanawia się prawa, zasady, teorie, a potem przychodzi negujący wstrząs po wstrząsie, zagrażający spoistości z trudem lepionego gmachu wiedzy ? Czy my dobrze robimy ustanawiając prawa, zasady, modele ? Jak to jest? To nie tylko coraz bardziej gęste sito jak słusznie zauważył Feynman, ale to czasami jest rewolucja w nauce. Przyjrzymy się temu bliżej przez pryzmat paradygmatu w nauce sformułowanego przez T. S. Kuhn’a w roku 1962. 4.2 Rewolucje i pradygmaty w nauce Jak widać z powyższego rozwój nauki nie jest procesem ciągłym, idzie drogą ciągło – skokową. Po niezbędnym okresie akumulacji wiedzy, potrzeba rozwiązania nowych problemów i ich niestandardowe rozwiązanie prowadzi do kryzysu, do nieznanych wcześniej pojęć i sposobów myślenia; np. względności ruchu, kwantowania małych energii, itd. Można z tej sytuacji wyciągnąć dwa wnioski; po pierwsze nauka jest systemem adaptacyjnym, poprawia własne błędy głównie przez weryfikację eksperymentalną, co już zauważył Feynman. Po drugie, wyczerpanie możliwości rozwoju w ramach danej interpretacji rzeczywistości prowadzi do kryzysu i zmiany paradygmatu. Sytuację tę analizował w latach 60 tych T. S. Kuhn, publikując w 1962 główną pozycję współczesnej filozofii nauki; The structure of Scientific Revolution, [Kuhn01]. Główna teza tego przesłania brzmi; odkrycia naukowe prowadzą do teorii naukowych, które mogą spowodować kryzysy w społeczności naukowej. Te kryzysy mogą dalej prowadzić do rewolucji naukowej, która zmienia pogląd świata (nauki) na dany problem i dziedzinę wiedzy, co wg Kuhna jest zmianą paradygmatu. Od tego czasu pojęcie to zrobiło karierę, nie tylko w nauce, mając dziś co najmniej kilka znaczeń; od modelu mentalnego danego problemu a nawet świata, do; ‘układu pojęć i przekonań, poprzez który rozumiemy i interpretujemy świat’. Serię wstrząsów i kryzysów jakie przeżywała fizyka i matematyka już opisaliśmy, do tego trzeba dodać jeszcze co najmniej dwie fundamentalne zmiany paradygmatu; systemowo1 holistyczny2 w nauce, oraz nowy paradygmat gospodarki i cywilizacji wiedzy, w której weszliśmy całkiem niedawno. Do tej pory od czasów Newtona i Kartezjusza obowiązywał w nauce paradygmat redukcjonistyczny, mechanicystyczny, zgodnie z którym o cechach całości systemu można się dowiedzieć izolując i badając jego części składowe. Paradygmat systemowy dojrzewał już od lat międzywojennych w biologii, aczkolwiek już Arystoteles zauważył iż całość to więcej niż suma części. Z drugiej strony w czasie II wojny światowej przy projektowaniu wielkich operacji, takich jak obrona Anglii, konwojów przez Atlantyk, itd., (patrz np. [Cempel 2000]), na dużą skalę zastosowano po raz pierwszy podejście systemowe, holistyczne do tych zagadnień. To, w powiązaniu z innymi osiągnięciami powojennej nauki; cybernetyka (Wiener, Ashby), teoria gier i rynku (von Neuman, Morgenstern), teoria informacji (Shanon), dało asumpt do powstania Teorii Systemów, jako uogólnienia wielu dziedzin, z głównym paradygmatem holistycznym i podejściem systemowym. Krótko po tym Teoria Systemów znalazła istotne wsparcie ze strony Inżynierii Systemów, służącej przede wszystkim do holistycznego projektowania systemów złożonych, z cyklem życia wyrobu ujmującym po raz pierwszy wszystkie etapy istnienia obiektu; od koncypowania aż do recyklingu i reużytkowania. Inżynieria Systemów, początkowo uprawiana na potrzeby wojskowości i badań kosmicznych (pierwsze wykłady w uniwersytetach USA w 1965r), przeszła szybko na użytek cywilny, w ścisłym związku z późniejszym triumfem technologii informatycznych, projektowania mechatronicznego i ekologicznego. Wspomniany już John von NEUMAN zajmował się nie tylko teorią gier, ale pracował również przy projekcie Manhatan w czasie II wojny światowej, opracował pierwsze algorytmy obliczeń szeregowych będących podstawą pracy współczesnych komputerów , rozwinął teorię automatów komórkowych, prekursorów dzisiejszych obliczeń równoległych, a 1 2 System = byt przejawiający swe istnienie przez synergiczne współdziałanie swych części. Holizm = pogląd (w skrócie) że zintegrowana całość posiada niezależny byt większy niż suma swych części. także stworzył podstawy nanotechnologii podając algorytm samo replikującego robota. Pierwsze komputery (np. ENIAC), duże, zawodne i ciężkie, zmieniły jedynie sposób myślenia w naukach obliczeniowych, z ciągłego na dyskretny - cyfrowy. Dopiero wynalezienie tranzystora i obwodów wysokiego stopnia integracji (VLSI) w latach sześćdziesiątych wprowadziło komputery do badań i przemysłu na masową skalę. W tym samym czasie gospodarka amerykańska zmieniała zwolna swe oblicze od 1965r, kiedy więcej niż połowa zatrudnionych zaczęła pracować w usługach opartych na przetwarzaniu informacji, a nie w przemyśle opartym o masowe wytwarzanie. Dzisiaj mówimy, że w gospodarce nastąpiła zmiana paradygmatu gospodarowania, z mechanicznego wytwarzania, będącego podstawą społeczeństwa przemysłowego na organiczne społeczeństwo zorientowane na usługi w oparciu o technologie informatyczne. Tym samym zwolna zachodzi zmiana paradygmatu cywilizacyjnego; z cywilizacji przemysłowej na cywilizację postindustrialną opartą na wiedzy, gdzie jak pisał Toffler wiedza jest substytutem wszystkich czynników produkcji. 4.3 Nowy paradygmat nauki i cywilizacji Tradycyjny paradygmat myślenia w nauce można nazwać kartezjańskim (Rene DESCARTES – po polsku Kartezjusz), newtonowskim lub baconowskim , gdyż jego główne założenia sformułowane zostały przez Kartezjusza, Newtona i Bacona Współczesny zaś paradygmat można nazwać holistycznym, ekologicznym, systemowym, ale żaden z tych przymiotników nie oddaje całkowicie jego natury. Bowiem myślenie według współczesnego paradygmatu jak wskazuje Capra [Capra 95], kieruje się pięcioma kryteriami, z których dwa pierwsze odnoszą się do naszego rozumienia natury, a trzy pozostałe do epistemologii czyli do tworzenia wiedzy, jak to przedstawiono niżej. 1. Zwrot od pojęcia Części ku pojęciu Całości Myślenie wedle tradycyjnego paradygmatu zakładało, że w wypadku jakiegokolwiek złożonego systemu dynamikę całości można zrozumieć na podstawie cech poszczególnych części składowych tejże całości. We współczesnym paradygmacie następuje odwrócenie relacji części do całości. Cechy części składowych mogą być zrozumiane tylko na podstawie dynamiki całości. Stąd części składowe samodzielnie przestają istnieć. To, co nazywamy częścią jest po prostu funkcjonalnym fragmentem nierozerwalnej sieci relacji. 2. Zwrot od pojęcia Struktury ku pojęciu Procesu Tradycyjny paradygmat zakładał, że istnieją struktury pierwotne oraz siły i mechanizmy powodujące ich interakcję, dzięki czemu powstają procesy. W myśl współczesnego paradygmatu każda struktura rozumiana jest jako przejaw (efekt) procesu, który w sobie kryje. Sieć relacji jest zaś z natury dynamiczna. 3. Zwrot od pojęcia nauki Obiektywnej ku pojęciu nauki Epistemicznej Tradycyjny paradygmat zakładał że opisy naukowe są obiektywne, a więc niezależne od obserwatora i od procesu poznania, tj zastosowanej metodologii badań dla uzyskania wyniku. Współczesny paradygmat zakłada że epistemologię, a więc rozumienie procesu powstawania wiedzy, należy bezpośrednio włączyć w opis badanych zjawisk naturalnych. Do tej pory jednak nie ma zgody na temat właściwego charakteru epistemologii, ale powstaje powszechne przekonanie, że epistemologia musi być integralną częścią każdej teorii naukowej. 4. Zwrot od pojęcia Budowli ku pojęciu Sieci jako metafory wiedzy Metafora wiedzy jako budowli, składającej się z fundamentalnych i absolutnych prawd, zasad, cegiełek konstrukcyjnych, itp., dominowała w nauce i filozofii Zachodu od tysięcy lat. W okresach zmiany paradygmatu uważano, że załamują się fundamenty wiedzy. W ujęciu współczesnego paradygmatu metafora budowli zastąpiona zostaje metaforą3 sieci. Postrzegamy rzeczywistość jako sieć wzajemnych relacji, a opisując ją także tworzymy sieć wzajemnych relacji zachodzącymi miedzy obserwowanymi zjawiskami. W sieci takiej nie występują absolutne hierarchie, ani absolutne fundamenty. Zmiana w jednym węźle sieci odczuwana jest przez wszystkie, ale nie w tym samym czasie i tej samej intensywności, (chyba że jesteśmy na poziomie kwantowym). Co najważniejsze, zwrot od metafory budowli ku metafory sieci zakłada porzucenie rozumienia fizyki jako ideału służącego ocenie i modelowaniu innych nauk, oraz jako głównego źródła metafor naukowego opisu. 5. Zwrot od pojęcia Prawdy ku pojęciu Przybliżonego Opisu Paradygmat kartezjański oparty był na przekonaniu, że wiedza naukowa zdolna jest nam dać absolutną i ostateczną pewność. W kontekście współczesnego paradygmatu uważa się, że wszelkie pojęcia, teorie i odkrycia są ograniczone i przybliżone. Nauka nigdy nie zapewni całościowego i ostatecznego zrozumienia rzeczywistości. Bowiem, naukowcy nie zajmują się prawdą (w sensie całkowitej zgodności między opisem a opisywanym zjawiskiem), ale ograniczonymi i przybliżonymi opisami rzeczywistości, które w ślad za Popper’em należy poddawać ciągłej falsyfikacji4. Dla lepszego zrozumienia powyższej zmiany paradygmatu, dogodnie jest ją przedstawić na tle dotychczasowych zmian paradygmatu cywilizacyjnego ludzkości. W technologii i gospodarce takie zmiany paradygmatu zachodzą znacznie szybciej, zwłaszcza ostatnio. Wg Freeman’a, [Freeman 95], pierwszy w dziejach ludzkości paradygmat technologii i gospodarki oparty był na siłach przyrody, w szczególności mięśni ludzkich, zwierzęcych, potem wiatru i wody. Siła parowa jako drugi paradygmat wkroczyła z wolna na arenę gospodarki w XVIII wieku. Siłę elektryczną jako trzeci paradygmat wprowadzono w XIX, wieku gdy pod jego koniec opanowano już generowanie i przesyłanie dużych mocy elektrycznych (Tesla). Zasady masowej produkcji - czwarty paradygmat - stosowano w przemysłach pakowania żywności i samochodowym dziesiątki lat, zanim przemysły te zdobyły dominację. Obecny piąty paradygmat gospodarki, technologie informacyjne, są rozwijane od drugiej wojny światowej (wg Freeman’a), a dopiero teraz widać, że stały się one motorem napędowym badań, technologii i gospodarki. Nie jest zatem zbyt wcześnie wg Freeman’a, by już teraz zastanowić się nad technologią i instytucjami generującymi przyszłościowy szósty paradygmat, który musi być przyjazny ludziom i środowisku, czyli 'bio - environment friendly'. 4.4 Przesłanki i implikacje nowego paradygmatu w nauce Wyłonienie się nowego paradygmatu w nauce i gospodarce było skutkiem zachodzących przemian w myśleniu elit ludzkości. Skupiając się na nauce, przypomnijmy sobie najważniejsze punkty zwrotne prowadzące do niedawnej zmiany paradygmatu redukcjonistycznego na holistyczno - systemowy. Teoria względności Einsteina, czyli względności ruchu i obserwatora pokazała przez analogię, iż w nauce może nie być nic stałego, wszystko płynie; ‘panta rei’ jak to już zauważył Heraklit ponad 2,5 tysiąca lat temu. Jedyną stałą rzeczą jest zmiana. Potem przyszło kwantowanie energii i działania Plancka z mechaniką kwantową, które nietrudno rozciągnąć na inne dziedziny poznania i działania ludzkości. Pokazał to w niedługim czasie W. Heisenberg w swej słynnej zasadzie nieokreśloności (nieoznaczoności), [Jaworski 71s848], gdzie na poziomie atomowym 3 Metafora = figura stylistyczna, w której jeden przynajmniej wyraz uzyskuje inne obrazowe, ale pokrewne znaczenie; przenośnia. 4 Falsyfikacja – próba dowiedzenia fałszywości danego stwierdzenia. działanie (iloczyn czasu i energii) jest kwantowane. Znaczy to że nie może być mniejsze niż jeden kwant, a wiec możemy mówić, a zwłaszcza liczyć i mierzyć, tylko z dokładnością do jednego kwantu działania (h/2π, h - stała Plancka). To odkrycie braku ciągłości ma swe dalsze implikacje w innych dziedzinach wiedzy, bo nawet w fizyce mówi się, że jeśli jakikolwiek iloczyn wielkości jest wyrażony jako działanie, np. położenie i pęd, to zasada nieokreśloności ma tu proste przeniesienie. Nie tylko w fizyce, ale i w teorii sygnałów pokazano np. , że czas trwania fragmentu procesu i jego przedstawienie widmowe w dziedzinie częstości podlegają tej samej zasadzie nie określoności, i można by to podejście mnożyć szukając przedziałów nie rozróżnialności wielu wielkości mierzalnych, (plus szum termiczny), w technice, psychologii, socjologii, itd., (np. [Francois 97s382]). Na poziomie semantycznym dołącza się tu i powiększa zamieszanie i niepewność twierdzenie Goedla o niekompletności systemów aksjomatycznych (logika, matematyka), które przez analogię można rozciągnąć na dowolne systemy symboliczne (ideologia, język, itp.), mówiąc obrazowo w ślad za [ Penrose 96s347 ], potrzebujemy wtedy każdorazowo haczyka z nieba. Prawdziwe zamieszanie w identyfikacji procesów, i zachowania się dużych systemów powoduje zjawisko nieliniowości, warte pokazania tak jak na rysunku 4.1 i specjalnego omówienia. Jak widać z rysunku, w pierwszym zakresie zmienności atrybutów wzajemna zależność jest bardzo słaba i łatwo może być pominięta w badaniach identyfikacyjnych. W środkowym zakresie zmienności zależność jest licząca się, a znowu marginalna w zakresie trzecim. Wystarczy zatem iż pierwotne badania były przeprowadzone w zakresach 1 bądź 3, a całościowe zachowanie się systemu będzie dla nas kompletną niespodzianką. Bo w istocie przyjęliśmy założenie o braku zależności atrybutów. Rys. 4.1. Ilustracja zjawiska nieliniowej zależności między dwoma cechami systemu, [Cempel2000,r4.7]. Nieliniowości w układach i systemach deterministycznych to nie tylko nierozpoznane ich zachowanie się, ale i zachowanie przypadkowe, chaotyczne5. Przypadkowe zachowanie się wielu zjawisk w naturze, np. turbulencja cieczy, itp., nie jest niczym dziwnym, dziwny jest natomiast tzw. chaos deterministyczny, odkryty niedawno w bardzo prostych modelach i układach, jeśli tylko są nieliniowe i pracują w pewnych zakresach parametrów. Takie dziwne zachowanie się układów było czasami postrzegane w badaniach naukowych, ale nikt do czasów Lorenz’a z MIT w USA (początek lat 60 tych) nie przebadał tej sprawy gruntownie, chyba dlatego że posiadał on na swój użytek jeden z pierwszych komputerów, [Stewart94]. Pracował on w tym czasie nad prognozowaniem pogody z trzema bardzo prostymi nieliniowymi równaniami różniczkowymi. Okazało się, że w pewnych zakresach zmiennych, rozwiązania (pogoda) zależą od rodzaju zaokrągleń pośrednich i punktu startu. Wpływ ten był na tyle silny że Lorenz nazwał go efektem motyla (buterfly), tzn że np. trzepotanie skrzydeł motyla na Alasce może zmienić pogodę w Bostonie. Odkryto potem wiele tego typu zachowań chaotycznych układów deterministycznych, powstała matematyka i dynamika chaotyczna, nauczono się parametryzować zachowania chaotyczne np. przez miary Poincare. Odkryto również ze zjawisko chaosu deterministycznego jest bliskim kuzynem struktur samo podobnych, tzw. fraktali6, że razem opisują one tzw. strukturę nieregularności. Można by tu jeszcze mnożyć niespodzianki, niejednoznaczności i dziwności w nauce. Stąd też u wielu naukowców powstało przekonanie iż dobra teoria jest taka, którą jeszcze nikt nie zaprzeczył. Jednak do Karla POPPER7’a należy bezsprzecznie wyartykułowanie konieczności falsyfikacji każdej teorii naukowej, [Francois95,s135]. W późniejszych dyskusjach filozoficznych na ten temat część filozofów nie zgadzała się z tak twardym wymogiem falsyfikacji. Wyróżnił się tu szczególnie I. Lakatos, który sformułował alternatywną metodologię programów badawczych, ale nie będziemy się tym dalej zajmować, [Chmielewski95]. To kryterium sprawdzalności czy też falsyfikalności, [Popper95], zostało w pełni przyjęte przez świat nauki. A jak stwierdził David BOHM, angielski noblista fizyk, ‘kolejne udane eksperymenty potwierdzające teorię zwiększają jedynie nasz stopień wiarygodności do niej, ale nigdy nie czynią ją prawdziwą’. 4.5 Podsumowanie Nakreślono skrótowo rozwój współczesnej nauki, z jego wstrząsami w fizyce i matematyce na początku 20 wieku, co potem doprowadziło do zmiany paradygmatu z redukcjonistycznego do holistycznego – systemowego. Te zmianę paradygmatu przedstawiono szerzej; pokazując podobne przesłanki i implikacje słuszne w różnych dziedzinach wiedzy. Wyłania się tu zwolna hierarchia narzędzi konieczna do stosowania w nauce; paradygmat ⇒ metodologia ⇒ metoda ⇒ metodyka ⇒ narzędzia badawcze. Podsumowaniem i dopełnieniem tego można uznać zasadę falsyfikacji każdego stwierdzenia naukowego przedstawioną przez Popper’a. 5 Chaos = zjawisko nieuporządkowane, całkowicie nie do przewidzenia. Fraktale = twory geometryczne w różnej skali samopodobne, np. płatek śniegu, dobrze rozgałęzione drzewo, linia brzegowa, itp. 7 K. Popper = sławny angielski filozof nauki zajmujący się epistemologią, mianowany lordem, (Austriak z pochodzenia). 6 4.6 Problemy 1. Przedstaw dalsze implikacje twierdzenia Bell’a o nielokalności. Co wiesz o Energii Punktu Zerowego (zero point energy), jak to można wykorzystać ?