Spór indukcjonizmu nauk empirycznych
Transkrypt
Spór indukcjonizmu nauk empirycznych
nego przyrodoznawstwa. W naukach społecznych, z przyczyn zarówno natury poznawczej, jak i etycznej, metoda ta nie znajduje tak szerokiego zastosowania. W odróżnieniu od przedstawiciela nauk społecznych, przyrodnik (w szczególności fIzyk) znajduje się w sytuacji uprzywilejowanej: może prowadzić swe obserwacje w warunkach kontrolowanych laboratoryjnie. Jak wiadomo, ludzie znajdujący się w specjalnych sztucznych warunkach obserwacyjnych nie zachowują się tak, jak zachowywaliby się w warunkach naturalnych. Wiąże się to właśnie ze specyfIką przedmiotu badań nauk humanistycznych - człowiekiem i jego osobowością. W sferze społecznej na ogół trudno jest mówić o pełnej powtarzalności zjawisk (nawet w przypadku zapewnienia identycznych warunków) i, co za tym idzie, ich intersubiektywnej kontrolowalności i sprawdzalności, czy dużym stopniu obiektywności wiedzy tej sfery dotyczącej. Do głosu bowiem dochodzą tu czynniki wolicjonalne, emocjonalne, etyczne czy aksjologiczne, które ze względu na świado mość (osobowość) badanych obiektów mogą prowadzić do wyników znacznie różniących się między sobą; trudno także przeprowadzać dokładne przewidywania w dziedzinach tak złożonych, jak dziedzina zachowań ludzkich czy dziedzina zjawisk społecznych. Do najczęściej stosowanych metod badawczych w naukach społecznych (humanistycznych) należą również: ankieta, sondaż, wywiad, badanie opinii publicznej. W związku z różnicą metod w przyrodoznawstwie i humanistyce w XIX stuleciu rozgorzał spór trwający do dzisiaj między naturalizmem metodologicznym a antynaturalizmem metodologicznym o to, na ile istotne są te różnice i czy powinny być one utrzymane, a nawet pogłębiane, czy też humanistyka powinna się wzorować na tych metodach poznania, które wypracowało nowożytne przyrodoznawstwo. Oba skrajne stanowiska są tu zapewne niesłuszne, słuszny zdaje się być umiarkowany naturalizm metodologiczny, który dostrzegając odmienność metod stosowanych w obu tych wielkich działach nauk, jednocześnie podkreśla zasadniczą jedność metodologiczną nauki. Na temat struktury nauki oraz funkcji społecznych nauki bardziej szczegółowe informacje można znaleźć w haśle: "Nauka", zamieszczonym w encyklopedii: "Filozofia a nauka - zarys encyklopedyczny" (Ossolineum, 1987, s. 412-421) oraz w książce A. Cha1mersa "Czym jest to, co zwiemy nauką?" (Wydawnictwo Siedmiogród, Wrocław 1993). Spór indukcjonizmu z hipotetyzmem o metodę nauk empirycznych Najbardziej charakterystyczną cechą nauki ujmowanej jako proces zdobywania wiedzy jest metoda, jaką nauka stosuje, metoda naukowa. Jest ogólnie przyjęte, że nauka empiryczna, jak niejednokrotnie podkreślał Einstein, wychodzić musi od faktów i kończyć się na faktach, niezależnie od tego, za pomocą jakich struktur teoretycznych łączy je ze sobą. Naukowe podejście do zjawisk rozpoczęło się z chwilą, gdy człowiek zaczął się krytycznie odnosić do posiadanej wiedzy, gdy zaczął ją ujmować nie dogmatycznie, lecz jako prowizoryczną i gdy okazywał gotowość porzucenia jej lub modyfIkowania zawsze, gdy tylko fakty się z nią nie zgadzały. To co powiedzieliśmy dotąd - to poglądy powszechnie uznawane w metodologii nauk empirycznych. Ale już w tym miejscu zaczynają się spory. Jedna z zasadniczych kontrowersji toczy się między indukcjonizmem a hipotetyzmem. Centralną koncepcją pierwszego z nich jest koncepcja metody indukcyjnej jako podstawowej metody zarówno dochodzenia do nowych twierdzeń naukowych, jak i ich sprawdzania. Drugi kierunek - hipotetyzm (zwany też antyindukcjonizmem) - zawiera krytykę indukcjonizmu i przypisuje zasadniczą rolę w budowaniu nauk empirycznych tzw. metodzie hipotetyczno-dedukcyjnej, polegającej na stawianiu hipotez i ich krytyce za pomocą procedury dedukcyjnej, pozwalającej konfrontować hipotezy z faktami doświadczalnymi. Jeśli idzie o metodę indukcyjną, to kierunek ten bądź przypisuje jej 17 niewielką rolę w nauce, bądź eliminuje ją całkowicie, głosząc, że nie odgrywała ona nigdy w nauce i nie odgrywa obecnie żadnej roli. Zwolennikami indukcjonizmu byli m.in. F. Bacon, I. Newton, J. S. Min oraz neopozytywiści (wśród nich Carnap ), natomiast hipotetyzm reprezentowali tacy filozofowie i uczeni, jak J evons, Duhem, Einstein i Popper. Einstein wygłasza w roku 1933 słynny odczyt oxfordzki ,,0 metodzie badania teoretycznej fizyki", w którym zauważa, iż chociaż sam Newton sądził, że do swych podstawowych odkryć i praw, które sformułował, doszedł w drodze indukcyjnego uogólniania faktów empirycznych, i że podobny pogląd był prawie powszechny wśród fizyków aż do XIX w., to jednak podstawowe swe osiągnięcia zawdzięcza fizyka teoretyczna nie metodzie indukcyjnej, lecz metodzie stawiania hipotez oraz dedukcyjnego wyprowadzania z nich wniosków doświadczalnych i przewidywań oraz konfrontowania ich z faktami. l. Stanowisko indukcjonizmu Według indukcjonizmu do praw i najwa~iejszych ustaleń w naukach empirycznych oraz w życiu potocznym dochodzi się na drodze indukcyjnego uogólniania faktów. Kepler obserwując, że poszczególne planety poruszają się po elipsach, wyprowadza indukcyjne uogólnienie zwane pierwszym prawem Kepiera: wszystkie planety poruszają się po torach eliptycznych wokół Słońca, które znajduje się w jednym z ognisk elipsy. Galileusz, ustalając dla poszczególnych przedmiotów ciężkich, ze spadają one z przyspieszeniem proporcjonalnym do czasu spadania, dochodzi do indukcyjnego gt 2 uogólnienia, zwanego prawem swobodnego spadania: s= 2· Charakterystyczne dla indukcji właściwej mają być dwa momenty: (1) przejście "od szczegółów do ogółu", tzn. od faktów i twierdzeń jednostkowych dotyczących zjawisk obserwowalnych do twierdzeń ogólnych, obejmujących całe klasy przedmiotów oraz (2) przejście "od faktów znanych do faktów nieznanych" (np. gdy Newton rozciąga swe prawo grawitacji na wszystkie obiekty 18 posiadające masę, to tym samym przechodzi od faktów zbadanych do nie zbadanych). Rzecz jasna, indukcjonizm zdaje sobie spawę, że indukcja stanowi rodzaj ekstrapolacji, w której przesłanki są za słabe, aby w sposób niezawodny dojść do wniosków, jakie się z nich wyprowadza; że więc indukcja właściwa - w odróżnieniu od dedukcji - jest metodą zawodną, gdzie prawdziwość przesłanek nie gwarantuje prawdziwości wniosku. W związku z tym współcześni indukcjoniści (Carnap, Reichenbach, Hintikka) starali się wykazać, że wnioski indukcyjne - nie będąc całkowicie pewne - mogą osiągać wysokie prawdopodobieństwo. Dążąc do osiągnięcia wiedzy jak najpewniejszej, indukcjonizm zaleca uznawanie poglądów i uogólnień jak najmniej ryzykownych, a to ma oznaczać jak najmniej wykraczających za ramy doświadczenia i tym samym w minimalnym stopniu narażonych na możliwość obalenia. Ostrożność badacza ma polegać na minimalizowaniu zadań: raczej trzymać się wąskich uogólnień obserwacyjnych, niż dochodzić do szerokich i ryzykownych uogólnień teoretycznych oraz karkołom nych ekstrapolacji na nieznane zjawiska. Łatwo zauważyć, że w nauce - zwłaszcza w dyscyplinach dojrzałych i dobrze rozwiniętych - postępuje się odwrotnie: dąży się do formułowania śmiałych i daleko wykraczających poza doświadczenie hipotez, będących kandydatami na prawa i teorie naukowe, a więc twierdzeniami (i zbiorami twierdzeń) o szerokim zasięgu stosowalności. Zasadą poznania empirycznego, według indukcjonisty, jest reguła: Obserwuj i uogólniaj wyniki obserwacji. Najpierw obserwacja, potem teoria! Obserwuj, nie sugerując się żadną teorią! Empiryczną sprawdzalność twierdzeń uznaje indukcjonista za kryterium demarkacji, tj. podziału twierdzeń na naukowe i nienaukowe (pozanaukowe): tylko te twierdzenia mają charakter empiryczny, a więc mogą stanowić twierdzenia nauk empirycznych, które są sprawdzalne empirycznie. Jeśli jakieś zdania są empirycznie nieroz- . strzygalne, to nawet jeśli są sensowne (mają zawartość poznawczą) - w co indukcjonista zwykle wątpi - nie należą do nauk empirycznych, lecz systemów spekulatywnych, metafizycznych. Przy tym indukcjonizm kładzie nacisk na potwierdzanie hipotez, 19 a nie na ich obalanie, co jest związane z regułą formułowania twierdzeń jak najmniej ryzykownych, jak najbardziej prawdopodobnych. Jest to tzw. weryfikacjonizm: dążność do maksymalnego potwierdzenia i uprawdopodobnienia istniejących i nowo formułowanych teorii. 2. Stanowisko hipotetyzmu (antyindukcjonizmu) Program antyindukcjonisty składa się z dwu części: krytycznej oraz konstruktywnej (programowej). Część krytyczna zawiera krytykę indukcjonizmu i metody indukcyjnej oraz weryfikacjonizmu. Część konstruktywna formułuje pozytywny model badania naukowego, czyli zawiera opis poprawnej procedury naukowej, którą ma być metoda stawiania i krytyki hipotez. Koncepcję metody indukcyjnej, według której umysł biernie gromadzi i szereguje obserwacje, hipotetyzm odrzuca jako niemożliwą do zrealizowania: ani poznanie przednaukowe czy pozanaukowe, ani poznanie naukowe nie polega na zbieraniu i uogólnianiu wyników obserwacji nie kierowanych przez żadną teorię. Wszelkie obserwacje oraz eksperymenty naukowe kierowane są przez probleIn y , które mają być rozstrzygnięte, zakładają pewne hipotezy, wyniki zaś obserwacji i eksperymentów interpretuje się zawsze w świetle określonych teorii i hipotez. Nawet obserwacje przednaukowe były kierowane przez rozwiązywane zagadnienia oraz wiedzę ogólną wcześniej nagromadzoną - np. wiedzę mitologiczną. A zatem wbrew rozpowszechnionemu poglądowi, hipoteza jest metodologicznie wcześniejsza od obserwacji i eksperymentu. Wszelkie badanie naukowe antycypuje fakty. Z kolei weryfikacjonizm jest nieprawomocny, gdyż uzasadnienie indukcyjne nie daje dostatecznej podstawy do uznania wniosku za prawdziwy, a zwalnia od obowiązku krytyki twierdzeń "dostatecznie uzasadnionych", "wysoce prawdopodobnych". Rodzi to wielce szkodliwą w nauce postawę "apologetyczną" wobec istniejących teorii, stanowi zamaskowaną odmianę dogmatyzmu. Twierdzenie ogólne, nawet najlepiej sprawdzone pozostaje hipotezą, którą trzeba stale kontrolować, poddawać rzetelnym i surowym. próbom obalenia. Wykazanie zgodności istniejących teorii z ustalonymi faktami em- 20 pirycznymi nie wystarcza, nie tylko do wykazania prawdziwości, lecz nawet wysokiego prawdopodobieństwa teorii. Pozytywny program współczesnego hipotetyzmu (reprezentowanego przez Poppera i jego zwolenników) głosi, że wszystkie twierdzenia występujące w nauce, również twierdzenia jednostkowe i obserwacyjne są hipotetyczne i odwoływalne. Nie istnieją bowiem niezinterpretowane "dane obserwacyjne", "nagie fakty", nie istnieje "czyste, nie skażone przez żadne wtręty hipotetyczne" doświadczenie, ani teoretycznie "neutralny" język obserwacyjny. Uznanie nieobserwacyjnego, a więc teoretycznego i hipotetycznego w pewnym stopniu charakteru wszelkich terminów i zdań języka nauk empirycznych prowadzi z kolei do wniosku, że nie istnieje baza empiryczna nauki złożona z twierdzeń, które są nieodwoływalne. Dlatego uznanie lub odrzucenie nawet zdań o najniższym stopniu uteoretycznienia (zwanych zdaniami bazowymi) zachodzi zawsze w pewnych ramach teoretycznych i wymaga podjęcia decyzji nie wyzp.aczonej w sposób jednoznaczny przez dane obserwacyjne, a więc decyzji w pewnym stopniu teoretycznej i zarazem w pewnej mierze arbitralnej (powyższy pogląd Poppera zwany jest "oddolnym konwencjonalizmem"). Dla hipotetysty spostrzeżenie nie jest warunkiem wystarczającym do uznania żadnego zdania za prawdziwe. Nie ma przeto metody, która pozwoliłaby wykazać prawdziwość zdań empirycznych. Twierdzenia naukowe, w tym prawa i teorie, są zawsze hipotezami, czyli twierdzeniami, które przyjmuje się zawsze tylko "na próbę", prowizorycznie i tymczasowo, tzn. tak długo, dopóki mimo usilnych prób ich obalenia nie udaje się ich sfalsyfikować, czyli wykazać ich fałszywości. Uczony ma stały obowiązek krytyki hipotez, w szczególności zaś twierdzeń uniwersalnych, przez nieustanne ponawianie prób ich obalenia. Chociaż bowiem nie posiadamy metody wykazywania prawdziwości twierdzeń, wiemy, jak wykazywać, opierając się na doświadczeniu, ich fałszywość. Mianowicie, stwierdzenie kontrprzypadku dla danego twierdzenia oznacza jego falsyfikację, tj. praktycznie biorąc wystarcza do wykazania jego fałszywości. Dlatego głównym celem postępowania naukowego jest eliminowanie hipotez fałszywych, a więc falsyfikacja 21 (stąd trzecia nazwa omawianego kierunku: falsyfikacjonizm), nie zaś weryfikacja czy chociażby konfirmacja twierdzeń (weryfikacja polega na wykazaniu prawdziwości twierdzenia, natomiast konfirmacja - na jego częściowym potwierdzeniu). Metodą stosowaną w naukach empirycznych okazuje się przeto nie metoda indukcyjna, lecz metoda stawiania i krytyki hipotez. Metoda ta polega (1) na swobodnym stawianiu jak najbardziej śmiałych i ryzykownych hipotez teoretycznych (tj. hipotez jak najbardziej ogólnych i ścisłych, o jak największej zawartości informacyjnej i, co za tym idzie, o najwyższym stopniu falsyfikowalności), dalej na (2) dedukcyjnym wyprowadzaniu z nich wniosków obserwacyjnych oraz na (3) przeprowadzaniu jak najsurowszych prób ich obalenia poprzez wykazywanie niezgodności tych wniosków (prognoz) z wynikami doświadczenia. 3. Ocena przedstawionych stanowisk Nie ulega wątpliwości, że omówione koncepcje - to koncepcje w pewnej mierze komplementarne, częściowo uzupełniające się. Chociaż hipotetyzm wydaje się stanowiskiem ba~dziej dojrzałym i w większym stopniu odpowiadającym praktyce badawczej uczonych, to jednak oba kierunki ujawniają pewną jednostronność oraz skrajność ujęć, które są nie do przyjęcia. Nie jest w szczególności prawdą - wbrew temu, co twierdzą niektórzy hipotetyści - że "indukcja jest wymysłem indukcjonisty", że metoda ta nie odgrywa i nigdy nie odgrywała w nauce żadnej roli. Tak skrajny pogląd jest zapewne związany z okolicznością, że usprawiedliwienie indukcji, uprawomocnienie jej metod, napotyka na niepokonalne zda się trudności. Stanowisko indukcjonisty odpowiada raczej procesowi kształ towania się wiedzy potocznej, szczególnie u dziecka i tzw. ludów pierwotnych niż procesowi gromadzenia wiedzy naukowej . Jeśli idzie o naukę, to nie ulega wątpliwości, że daje ono lepszy obraz rozwoju wiedzy w niższych stadiach rozwoju nauki (w tzw. okresie przedteoretycznym poszczególnych dyscyplin) oraz w zastosowaniu do nauk słabiej rozwiniętych, nie wychodzących poza język potoczny, aniżeli w zastosowaniu do wyższych stadiów i w odniesieniu do dyscyplin 22 ścisłych, dojrzałych. Lepiej też odpowiada dyscyplinom eksperymentalnym i opisowym aniżeli dyscyplinom teoretycznym i wyjaśniającym. W tych pierwszych bowiem indukcja odgrywała i odgrywa niewątpliwie dość poważną rolę. Jednakże opis w języku obserwacyjnym oraz formułowanie wąskich praw empirycznych nie jest głównym celem nauki. Stanowią one jedynie pewien "historyczny punkt wyjścia" w rozwoju wiedzy naukowej. W dyscyplinach ścisłych podstawowa część wiedzy stanowiąca ich trzon sformułowana jest w języku teoretycznym, matematycznym. Nauka rozwinięta, taka jak fizyka teoretyczna, operuje częściej idealizacjami aniżeli pojęciami doświadczalnej natury, a więc jej pojęcia dotyczą przeważnie obiektów modelowych, zwanych typami idealnymi, w doświadczeniu nie spotykanych, takich jak układ izolowany, układ.inercyjny, punkt materialny, ciało doskonale sztywne, doskonale czarne, gaz doskonały, ciecz idealna itp. Do pojęć tego rodzaju oraz formułowanych za ich pomocą praw nie można dojść na drodze uogólniania faktów empirycznych. N a podstawie procedury indukcyjnej można było dojść do sformułowania podstawowych twierdzeń fizyki Arystotelesa, np. twierdzenia, że "jeśli na ciało przestaje działać siła, to ciało przestaje się poruszać". Nie można jednak było na tej drodze wyprowadzić praw mechaniki klasycznej Newtona, np. zasady bezwładności głoszącej, że "jeśli na ciało nie działa żadna siła, to zachowuje ono swój stan: stan ruchu inercyjnego Gednostajnego i prostoliniowego) lub spoczynku". Tutaj nieodzowne okazało się zastosowanie eksperymentu myślowego oraz metody idealizacji: wszak ciała, na które nie działają żadne siły nie istnieją i nie dają się obserwować. Przyrodnicy, w odróżnieniu od metodologów, zawsze byli, jak się zdaje (z małymi wyjątkami), hipotetystami raczej niż indukcjonistami, i nawet w wypadku, gdy jak Newton sądzili, że podstawowa metoda dochodzenia do praw i teorii to metoda indukcyjnego uogólniania w tradycyjnym, wąskim znaczeniu tego terminu, to w praktyce stosowali przeważnie metodę stawiania hipotez (antycypacji faktów, przewidywania przebiegu i charakteru zjawisk), zawierającą w sobie metodę idealizacji oraz metodę modelowania i analogii, a więc metody nie mieszczące się w ramach wąsko pojmowanej indukcji. Zdawali też 23 sobie niejako od początku sprawę, że doświadczenia mogą być rozmaicie interpretowane, tak że nigdy nie dochodzi się do jednoznacznych wyników poznawczych na podstawie samej obserwacji. 4. Metodologiczny schemat badania naukowego Z tego co powiedzieliśmy wynika, że nauka empiryczna , stosuje nie jedną, lecz dwie zasadnicze metody, które się jednak tylko częściowo wykluczają. Jako metody' komplementarne uzupełniają się wzajemnie i jak się okazuje mogą być nawet podciągnięte pod pewien wspólny schemat. Obie one zdają się odgrywać rolę w dowolnej nauce empirycznej, ale niejednakową w różnych naukach i na różnych stadiach ich rozwoju. Schemat badania naukowego wskazujący na podstawowe kroki metody naukowej powinien tę dwoistość metod uwzględniać; musi przeto wskazywać zarówno na ich związki, jak i żachodzące między nimi różnice. Najpierw przedstawimy "zubożony" schemat, który uwzględnia jedynie cechy wspólne obu metod. Schemat wyroznm cztery stadia metody naukowej oraz trzy podstawowe kroki wiodące od jednego stadium do drugiego. Kolejnymi stadiami (wynikami) zastosowania metody naukowej są: fakty - teorie - przewidywania - fakty. Ponieważ fakty stanowiące czwarte stadium mogą wystąpić i nieraz występują w charakterze faktów rozpoczynających nowy cykl zastosowania metody naukowej, przeto w praktyce stadia metody naukowej redukują się do trzech. Kolejnymi krokami (operacjami) metody naukowej wiodącymi od jednego stadium do drugiego są: budowanie (na podstawie faktów) teorii, dedukcja (z teorii) przewidywań oraz sprawdzanie teorii poprzez konfrontację przewidywań z faktami. Schemat powyższy jest wspólny dla obu metod stosowanych w naukach empirycznych, jest przeto do przyjęcia zarówno dla indukcjonisty, jak i dla hipotetysty. A oto treść, jaką wkłada w ten schemat indukcjonista. świat konstrukcji teoretycznych: teorie __d_ed_u_kc-==.J_a__ -+ przewidywania (analiza) indukcja (uogólnianie) świat konstrukcji teoretycznych: teorie dedukcja -----=----+ weryfikacja (lub konfirmacja) przewidywania (analiza) świat faktów: empirycznych: budowanie teorii fakty fakty sprawdzanie teorii świat faktów empirycznych: fakty fakty W schemacie tym linia pozioma oddziela świat eksperymentatora, uniwersum faktów, od świata teoretyka - świata matematyki i innych konstrukcji teoretycznych (uniwersum konstruktów). W obszarze dolnym (pod linią) znajdujemy ludzi przeprowadzających obserwacje i eksperymenty, w obszarze górnym ludzi operujących pojęciami teoretycznymi oraz wzorami matematyki. będący 24 Zgodnie z interpretacją indukcjonisty pierwszy krok, wiodący od obserwacji do teorii, polega na indukcyjnym uogólnianiu ("gołych") faktów empirycznych. Jest to przy tym uogólnianie na fakty nieznane, należące do określonej klasy, tego co wiemy pod interesującym nas względem o faktach znanych tejże klasy. W naukach zaawansowanych ów proces indukcji niezupełnej prowadzi do sformułowania określonych wzorów matematycznych, które interpretuje się tak, by obejmowały one fakty włączone do teorii. Teraz uczony stoi przed pytaniem: czy jest to rzeczywiście to, czego szukałem? Aby odpowiedzieć na to pytanie, zmuszony jest powrócić do świata faktów. 25 nie sposób jednak sprawdzić bezpośrednio, przykładając je niejako do opisywanej rzeczywistości. Uprzednio musimy wiedzieć, co ogólne schematy i ogólne twierdzenia teoretyczne mają do powiedzenia o empirycznych faktach jednostkowych. W tym celu trzeba przeanalizować twierdzenia ogólne, zobaczyć, jaka treść empiryczna jest w nich zawarta. Nie sposób bowiem np. zaobserwować, że słońce zgodnie z prawem grawitacji oraz prawami mechaniki będzie wschodzić "wieczp.ie", a ściślej mówiąc tak długo, jak długo występować będą odpowiednie warunki początkowe i brzegowe. Zaobserwować możemy tylko, że wzeszło ono przedwczoraj, wczoraj, dzisiaj, że wzejdzie jutro itd. Trzeba więc z praw ogólnych wyprowadzić prognozy dotyczące tego, co rzeczywiście się zdarzy. Ten krok to dedukcja, tj. analiza logiczna tego, co prawa ogólne mówią o poszczególnych zdarzeniach empirycznych. Teraz następuje krok trzeci: trzeba powrócić do zaobserwowanych faktów, porównać je z przewidywaniami i rozstrzygnąć, czy wyprowadzone prognozy były słuszne. Jest to sprawdzanie teorii, w celu wykazania jej wysokiego stopnia prawdopodobieństwa lub nawet prawdziwości, czyli konfirmacja teorii lub weryfikacja teorii. A teraz uszczegółowienie schematu poznania naukowego odpowiadające stanowisku hipotetysty. Konstrukcji myślowych świat konstrukcji teoretycznych: teorie ___ ded_u_k---=:cj_a_ _ -+ przewidywania (analiza) stawianie hipotez falsyfikacja świat faktów empirycznych: l fakty fakty Jeśli chcemy powyższy schemat opisać ze stanowiska hipotetyzmu, to stajemy oko w oko z następującą zasadniczą trudnością: na czym polega stawianie hipotez, wysuwanie pomysłów; co to za proces, wedle 26 jakich reguł on przebiega? Czym się w szczególności różni stawianie hipotez od indukcyjnego uogólniania? Einstein we wspomnianym wcześniej odczycie" O metodzie badaJ.?-ia teoretycznej fizyki" wypowiada pogląd, że skoro metoda naukowa zawiera w sobie jako dwa główne i naj trudniejsze kroki: stawianie hipotez oraz dedukcję, to student fizyki nie może wynieść ze swej uczelni opanowania tej metody w całości. To, czego uczą go usilnie. i starannie w uczelni (w szkole), to dedukowanie, za pomocą potężnych środków matematycznych, z przyjętych założeń wszelkich możliwych wniosków. Nikt go jednak nie uczy tego, co najdonioślejsze zarówno dla teoretyka, jak i eksperymentatora, tego co najważniejsze i najbardziej twórcze w metodzie naukowej: jak wpadać na dobre pomysły. Nikt go nie uczy, w jaki sposób dochodzić do założeń wyjściowych teorii, do sformułowania hipotez najlepiej nadających się na postulaty teorii z jednej strony, oraz dochodzić do hipotez prowadzących do udanych i płodnych eksperymentów z drugiej. Wytłumaczenie tego faktu jest, zdaniem Einsteina, oczywiste: nikt go nie uczy, gdyż żadne reguły nie są tu znane. Sądzi on nawet, że reguły procesu wpadania na pomysły, stawiania hipotez, nigdy nie zostaną poznane, że pozostaną na zawsze tajemnicą, nawet dla geniusza. Zobaczymy dalej, że sprawa powyższa nie przedstawia się tak beznadziejnie, jak ją widział Einstein. Ale osiągnięcia w tej dziedzinie są, jak dotąd, rzeczywiście skromne, a postęp powolny i uciążliwy. Jeśli idzie o drugi krok metody naukowej, to nie różni się bn w ujęciu hipotetysty od tegoż kroku w ujęciu indukcjonisty: wedle obydwu polega on na dedukcji, na wyprowadzaniu z teorii takich przewidywań, które można byłoby konfrontować z faktami, na analizie zawartości informacyjnej teorii. Co do trzeciego kroku, to znowu jest on ujmowany przez każdego z nich inaczej: wedle indukcjonisty, będącego wszak weryfikacjonistą, polega on na wykazywaniu wysokiego prawdopodobieństwa lub nawet prawdziwości teorii, według hipotetysty natomiast - jako falsyfikacjonisty - na usilnym dążeniu do eliminacji jak największej liczby istniejących hipotez poprzez ich kolejne obalanie (wykazywanie fałszywości, falsyfikację). 27 5. O procesie tworzenia hipotez Proces indukcyjnego uogólniania nie zawiera w sobie nic tajemniczego. Przebiega on wedle znanych reguł indukcji przez proste wyliczenie (enumeracyjnej) lub reguł indukcji eliminacyjnej (tzw. kanonów Mi11a). Dość zagadkowy pozostaje natomiast proces stawiania hipotez, wysuwania pomysłów. Problemem tym zajmuje się głównie psychologia, mianowicie ten jej dział, który nosi nazwę psychologii poznawczej. N a czym polega proces wytwarzania pomysłów? Jest to zagadnienie doniosłe, gdyż nowoczesne społeczeństwo potrzebuje coraz to więcej umysłów twórczych i oryginalnych. Idzie więc o to, aby w sposób świadomy i zaplanowany kształtować te cechy u ludzi, aby realizować w tym względzie określone cele pedagogiczne. Niestety, niewiele wiemy o tych procesach. Współczesna wiedza psychologiczna na ten temat jest bardzo skromna i nie uporząd kowana: procesem wytwarzania pomysłów i twórczości w różnych dziedzinach zajmowali się dotąd częściej uczeni różnych dziedzin oraz artyści niż psychologowie. Mamy w tym przedmiocie interesujące prace matematyków, lekarzy, metodologów, psychologów (H. Poincare, J. Hadamard, W. Beveridge, N. Łubnicki, J. Kozie1ecki J inni). Wiedza psychologów na ten temat zasługuje jednak na wyróżnienie, gdyż jest pewniejsza. Przyjmijmy, za niektórymi cybernetykami oraz psychologami, że człowiek posiada dwa względnie wyodrębnione systemy myślowe, które funkcjonują w sytuacji problemowej i w których zachodzą odpowiednio procesy wytwarzania pomysłów oraz ich selekcji (wyboru i oceny). Pierwszy z nich to generator pomysłów - czyli system wytwarzający różne hipotezy i pomysły; drugi to ewaluator pomysłów - czyli system dokonujący wyboru i oceny owych hipotez i pomysłów, system sprawdzający je (ang. evaluate-oceniać). Dwa te systemy występują zwykle w urządzeniach cybernetycznych, których praca polega na wytwarzaniu odpowiednich ruchów (posunięć) i ich selekcji wedle określonych kryteriów. Z kolei wyróżnimy dwa rodzaje problemów rozwiązywanych przez człowieka. Pierwszy rodzaj, to problemy typu "odkryć": można odkryć 28 jakieś zjawisko, relację, zależność (przyczynową, funkcjonalną) lub które występują w rzeczywistości. "Odkryć" w tym sensie znaczy odzwierciedlić, odbić, skopiować, zmodelować itp. Właśnie pomysły rozwiązania występujące w tej klasie problemów nazywamy hipotezami. Hipoteza występuje tu jako domniemane odkrycie. Odkryć naukowych dokonuje odkrywca: jest nim zwykle uczony (np. Archimedes, Newton, Einstein). Problemy drugiego rodzaju, to problemy typu "wynaleźć", "skonstruować", " wytworzyć " (to, czego dotąd nie było, wytworzyć coś nowego). Rozwiązuje je zwykle wynalazca, konstruktor (np. Edison, L Łukasiewicz, Marconi), a także uczony i artysta: wynajdujemy nie tylko nowe urządzenia techniczne i nie tylko konstrukcje maszyn, lecz także tworzymy pojęcia, metody, wątki literackie. Nawet teorie naukowe są w znacznej mierze realizacją zamierzeń konstruktorskich ("budowanie teorii"). Rozwiązania problemów pierwszego rodzaju, czyli hipotezy, oceniamy pod względem ich zgodności z rzeczywistością, czyli prawdziwości; rozwiązania problemów drugiego rodzaju, np. pojęcia czy metody, oceniamy pod względem ich skuteczności, ekonomiczności, prostoty, oryginalności, łatwości wykorzystania czy w ogóle możności wykorzystania dla realizacji danego celu itp. Pojęcie pomysłu okazuje się więc szersze niż pojęcie hipotezy: pomysł może być bądź hipotezą, bądź konstrukcją (projektem). Nas interesuje tutaj głównie proces rozwiązywania problemów pierwszego rodzaju: proces wytwarzania hipotez wiodących do odkryć, czyli proces wytwarzania pomysłów typu odkryć. Ma on jednak wiele cech wspólnych z procesem wynalazczości. Wydaje się nawet, że żaden z tych procesów nie występuje w czystej postaci, bez "domieszki" drugiego: odkrycie naukowe ma w sobie zawsze coś z wynalazku, a wynalazek coś z odkrycia. Proces wytwarzania pomysłów (w szerokim sensie) ma szereg cech różniących go od procesów rozumowania, wyboru, oceny oraz sprawdzania. Przede wszystkim proces wytwarzania pomysłów (wytwarzania informacji), w tym stawiania hipotez, to proces heurystyczny. Nie przebiega on zgodnie z zasadami logiki, tzn. nie jest kierowany przez reguły logiczne, reguły odznaczające się niezawodnością, aczkolwiek nie musi im przeczyć. Jest on w wysokim stopniu intuicyjny w tym sensie, że jest kierowany w znacznej mierze przez prawidłowość, 29 "wyczucie" problemu i "uchwycenie" sytuacji problemowej i nie daje się podporządkować ścisłym regułom logiki. (Stąd właśnie bierze się przekonanie Einsteina i wielu innych uczonych, że proces ten nigdy nie będzie zbadany, że reguły, według których on przebiega nigdy nie będą znane.) Co więcej, jak wykazują badania psychologiczne, zdolności do wysuwania pomysłów są często ujemnie skorelowane ze zdolnością przeprowadzania rozumowań, w szczególności ścisłych wnioskowań dedukcyjnych, przebiegających zgodnie z regułami logiki. Proces wysuwania pomysłów nie jest jednak procesem nie podlegającym żadnym regułom. Jest to proces heurystyczny, gdyż jest regulowany i kierowany przez specyficzne reguły zwane regułami heurystycznymi czyli heurystykami. Przeciwieństwem procesów heurystycznych są procesy algorytmiczne przebiegające zgodnie z określonymi algorytmami. Termin "heurystyka" pochodzi od greckiego słowa heurisco oznaczającego sztukę odkrywania nowych rzeczy, np. umiejęt ność formułowania hipotez. Według psychologów, heurystyki to reguły, zasady, wskazówki, taktyki, a nawet tricki czy intuicje, które regulują przebieg procesu rozwiązywania zagadnień, lecz nie gwarantują osiągnięcia pożądanego wyniku. Heurystyki to więc zawodne reguły wytwarzania pomysłów. Należą do nich np. wskazbwki w rodzaju: "rozkładaj proces wytwarzania na szereg elementarnych procesów myślowych", "porzucaj bezowocne kierunki poszukiwań", "rozpoczynaj rozwiązanie problemu od dokładnej analizy informacji" itp. Wyróżnia się dwa rodzaje reguł heurystycznych: 1) heurystyki ogólne, stosowane do rozwiązywania większości lub wszystkich problemów oraz 2) heurystyki specyficzne mające zastosowanie do sytuacji problemowych określonego typu, np. poszczególnych metod obserwacji, poszczególnych gier, rodzajów sportu itp. Do pierwszych zaliczamy zalecenia w rodzaju: "przed sformułowaniem hipotezy zbadaj dokładnie sytuację problemową", "rozwiązując zadanie unikaj pośpiechu", "w procesie rozwiązywania zadania pamiętaj o alternatywnych możliwościach, zachowaj giętkość i elastyczność podejś cia", "nie przenoś pochopnie znanych ci metod na nowe sytuacje problemowe", "nie zapominaj o możliwości przypadkowego rozwiązania problemu", "odmierz siedem razy, zanim odetniesz" itp. Do heurystyk specyficznych, np. gry w szachy, zaliczymy zalecenia: 30 "przedkładaj przewagę sytuacyjną nad przewagę figurową", "analizuj sytuacje, które mogą ci zapewnić przewagę sytuacyjną lub figurową", "odrzuć ruch, który stawia hetmana w niebezpieczeństwie" itp. Do heurystyk specyficznych metody ankietowej zaliczymy takie wskazówki, jak: "stawiaj pytania'tak, by ich sformułowania nie sugerowały rodzaju odpowiedzi", "nie pytaj o sprawy prestiżowe, co do których ankietowani chcieliby uchodzić za lepszych, aniżeli są naprawdę", "organizuj badania tak, by ankietowani byli przekonami, że anonimowość ich odpowiedzi jest zagwarantowana" i inne. Właściwościami różniącymi reguły heurystyczne od reguł algorytmicznych są: 1) zawodność oraz 2) pewna nieokreśloność treści i zasięgu możliwych zastosowań. Jeśli idzie o zawodność, to nawet najlepsze reguły i taktyki heurystyczne nie gwarantują, że ich zastosowanie doprowadzi do rozwiązania problemu. Są to więc reguły, z którymi zawsze wiąże się pewne ryzyko niepowodzenia, reguły pozwalające się spodziewać, lecz nie zapewniające w każdym wypadku sukcesu, "reguły nadziei". Dlatego proces wytwarzania hipotez nie zawsze prowadzi do powstania nowych informacji, nowej wiedzy. Twórczość pozostaje przeto pewną sztuką, taktyką odkrywania, strategią poszukiwania, nie zaś działalnością pewną, niezawodną i w tym sensie "naukową", algorytmiczną. Zawodność jest główną cechą różniącą heurystyki od algorytmów będących przepisami operacji niezawodnych, zawsze wiodących do sukcesu, O ile oczywiście odpowiednie reguły algorytmiczne pozostają nie naruszone. Zresztą poszczególne reguły heurystyczne mogą się znacznie różnić od siebie stopniem niezawodności, skuteczności oraz racjonalności. Niełatwo jest jednak w poszczególnych wypadkach ustalić, które z nich są lepsze, a które gorsze. Druga osobliwość heurystyk, różniąca je od algorytmów, to ich nieokreśloność, nieścisłość i niekompletność sformułowania. Można powiedzieć, że heurystyki nie są przepisami tak "pedantycznymi" jak algorytmy: nie są podane w postaci listy ściśle określonych, elementarnych operacji nad znakami (czy operacji myślowych), które należy wedle określonej kolejności wykonać, aby rozwiązać problem. Ogólnie biorąc, różnica między heurystykami a algorytmami jest pod tym względem znaczna. W pewnych jednak wypadkach różnica między 31 algorytmami a heurystykami się zaciera; niejednokrotnie, dla robotów sztucznych inteligencji itp. opracowuje się takie heurystyki, które pod względem stopnia precyzji przypominają algorytmy. Psychologowie twierdzą, że każdy człowiek dysponuje całą rodziną heurystyk, mniej lub bardziej racjonalnych, czasami nawet ze sobą sprzecznych. Część z nich funkcjonuje zapewne nieświadomie, tak iż człowiek może nie zdawać sobie sprawy z tego, że ukierunkowują one jego poszukiwania. W miarę uczenia się oraz rozwiązywania coraz to nowych problemów człowiek przyswaja sobie wciąż nowe reguły heurystyczne, część z których jest zapewne "spychana" w podświadomość. To, jaki system heurystyczny znajdzie w danym wypadku zastosowanie zależy od struktury problemu, celu w jakim jest on rozwiązywany oraz zdolności intelektualnych człowieka. Dokładniej strukturę procesu twórczego przedstawia J. Kozielecki w pracy Koncepcja transgresyjna człowieka (rozdz. V: "Działania twórcze i transgresyjne"), PWN, Warszawa 1987). przypominających człowieka, Metodologia opisowa a metodologia normatywna Filozofia nauki od dawna boryka się z problemem: czy jaka ona jest faktycznie, czy też taką, jaka być powinna. Jest to spór o to, czy metodologia nauk powinna być metodologią opisową czy metodologią normatywną. W XIX stuleciu metodolodzy, pragnąc stać na twardym gruncie historii nauki, starali się ujmować naukę w sposób czysto opisowy, zdając sprawę z tych metod dochodzenia do twierdzeń naukowych i metod ich uzasadniania, które uczeni faktycznie stosowali w swej praktyce badawczej. Taki charakter miały w szczególności indukcj onistyczna koncepcja nauki J. St. Milla oraz hipotetystyczna koncepcja nauki Jevonsa. W naszym stuleciu zdano sobie jednak sprawę z faktu, że metodologia czysto opisowa nie jest możliwa, gdyż samo pojęcie nauki ma częściowo wartościujący charakter: aby opisywać wiedzę naukową oraz sposoby dochodzenia do niej trzeba już wiedzieć, co nauką jest a co nie jest, a tego nie da się ustalić na drodze czysto opisowej. Dlatego XX-wieczne metodologie nauk na ogół mają wyraźniej zaznaczony aspekt normatywny. Jest on mniej widoczny w neopozytywistycznej wizji nauki (Carnapa, Reichenbacha, Hempla i innych), ale już całkiem wyraźny w hipotetyzmie Poppera i jego następców (Lakatosa czy Watkinsa). Metodologia o wyraźnym obliczu normatywnym pragnie uchwycić kryteria naukowości wiedzy, czyli te walory wiedzy, które czynią ją właśnie wiedzą naukową. Pragnie tym samym wyznaczyć model racjonalności naukowej (czy raczej następujące po sobie modele racjonalności, jeśli uwzględnić fakt, iż należy opisywać naukę taką, 33