Spór indukcjonizmu nauk empirycznych

Transkrypt

Spór indukcjonizmu nauk empirycznych
nego przyrodoznawstwa. W naukach społecznych, z przyczyn zarówno
natury poznawczej, jak i etycznej, metoda ta nie znajduje tak szerokiego
zastosowania. W odróżnieniu od przedstawiciela nauk społecznych,
przyrodnik (w szczególności fIzyk) znajduje się w sytuacji uprzywilejowanej:
może prowadzić swe obserwacje w warunkach kontrolowanych laboratoryjnie. Jak wiadomo, ludzie znajdujący się w specjalnych sztucznych
warunkach obserwacyjnych nie zachowują się tak, jak zachowywaliby się
w warunkach naturalnych. Wiąże się to właśnie ze specyfIką przedmiotu
badań nauk humanistycznych - człowiekiem i jego osobowością.
W sferze społecznej na ogół trudno jest mówić o pełnej powtarzalności zjawisk (nawet w przypadku zapewnienia identycznych warunków) i, co za tym idzie, ich intersubiektywnej kontrolowalności
i sprawdzalności, czy dużym stopniu obiektywności wiedzy tej sfery
dotyczącej. Do głosu bowiem dochodzą tu czynniki wolicjonalne,
emocjonalne, etyczne czy aksjologiczne, które ze względu na świado­
mość (osobowość) badanych obiektów mogą prowadzić do wyników
znacznie różniących się między sobą; trudno także przeprowadzać
dokładne przewidywania w dziedzinach tak złożonych, jak dziedzina
zachowań ludzkich czy dziedzina zjawisk społecznych. Do najczęściej
stosowanych metod badawczych w naukach społecznych (humanistycznych) należą również: ankieta, sondaż, wywiad, badanie opinii publicznej.
W związku z różnicą metod w przyrodoznawstwie i humanistyce
w XIX stuleciu rozgorzał spór trwający do dzisiaj między naturalizmem
metodologicznym a antynaturalizmem metodologicznym o to, na ile
istotne są te różnice i czy powinny być one utrzymane, a nawet
pogłębiane, czy też humanistyka powinna się wzorować na tych
metodach poznania, które wypracowało nowożytne przyrodoznawstwo. Oba skrajne stanowiska są tu zapewne niesłuszne, słuszny zdaje
się być umiarkowany naturalizm metodologiczny, który dostrzegając
odmienność metod stosowanych w obu tych wielkich działach nauk,
jednocześnie podkreśla zasadniczą jedność metodologiczną nauki.
Na temat struktury nauki oraz funkcji społecznych nauki bardziej
szczegółowe informacje można znaleźć w haśle: "Nauka", zamieszczonym w encyklopedii: "Filozofia a nauka - zarys encyklopedyczny"
(Ossolineum, 1987, s. 412-421) oraz w książce A. Cha1mersa "Czym jest
to, co zwiemy nauką?" (Wydawnictwo Siedmiogród, Wrocław 1993).
Spór indukcjonizmu
z hipotetyzmem o metodę
nauk empirycznych
Najbardziej charakterystyczną cechą nauki ujmowanej jako
proces zdobywania wiedzy jest metoda, jaką nauka stosuje, metoda
naukowa.
Jest ogólnie przyjęte, że nauka empiryczna, jak niejednokrotnie
podkreślał Einstein, wychodzić musi od faktów i kończyć się na
faktach, niezależnie od tego, za pomocą jakich struktur teoretycznych
łączy je ze sobą. Naukowe podejście do zjawisk rozpoczęło się z chwilą,
gdy człowiek zaczął się krytycznie odnosić do posiadanej wiedzy, gdy
zaczął ją ujmować nie dogmatycznie, lecz jako prowizoryczną i gdy
okazywał gotowość porzucenia jej lub modyfIkowania zawsze, gdy
tylko fakty się z nią nie zgadzały.
To co powiedzieliśmy dotąd - to poglądy powszechnie uznawane
w metodologii nauk empirycznych. Ale już w tym miejscu zaczynają się
spory. Jedna z zasadniczych kontrowersji toczy się między indukcjonizmem a hipotetyzmem.
Centralną koncepcją pierwszego z nich jest koncepcja metody
indukcyjnej jako podstawowej metody zarówno dochodzenia do
nowych twierdzeń naukowych, jak i ich sprawdzania. Drugi kierunek
- hipotetyzm (zwany też antyindukcjonizmem) - zawiera krytykę
indukcjonizmu i przypisuje zasadniczą rolę w budowaniu nauk
empirycznych tzw. metodzie hipotetyczno-dedukcyjnej, polegającej na
stawianiu hipotez i ich krytyce za pomocą procedury dedukcyjnej,
pozwalającej konfrontować hipotezy z faktami doświadczalnymi. Jeśli
idzie o metodę indukcyjną, to kierunek ten bądź przypisuje jej
17
niewielką rolę w nauce, bądź eliminuje ją całkowicie, głosząc, że nie
odgrywała ona nigdy w nauce i nie odgrywa obecnie żadnej roli.
Zwolennikami indukcjonizmu byli m.in. F. Bacon, I. Newton, J. S.
Min oraz neopozytywiści (wśród nich Carnap ), natomiast hipotetyzm
reprezentowali tacy filozofowie i uczeni, jak J evons, Duhem, Einstein
i Popper. Einstein wygłasza w roku 1933 słynny odczyt oxfordzki ,,0
metodzie badania teoretycznej fizyki", w którym zauważa, iż chociaż
sam Newton sądził, że do swych podstawowych odkryć i praw, które
sformułował, doszedł w drodze indukcyjnego uogólniania faktów
empirycznych, i że podobny pogląd był prawie powszechny wśród
fizyków aż do XIX w., to jednak podstawowe swe osiągnięcia
zawdzięcza fizyka teoretyczna nie metodzie indukcyjnej, lecz metodzie
stawiania hipotez oraz dedukcyjnego wyprowadzania z nich wniosków
doświadczalnych i przewidywań oraz konfrontowania ich z faktami.
l. Stanowisko indukcjonizmu
Według indukcjonizmu do praw i najwa~iejszych ustaleń
w naukach empirycznych oraz w życiu potocznym dochodzi się na
drodze indukcyjnego uogólniania faktów.
Kepler obserwując, że poszczególne planety poruszają się po elipsach,
wyprowadza indukcyjne uogólnienie zwane pierwszym prawem Kepiera:
wszystkie planety poruszają się po torach eliptycznych wokół Słońca,
które znajduje się w jednym z ognisk elipsy. Galileusz, ustalając dla
poszczególnych przedmiotów ciężkich, ze spadają one z przyspieszeniem
proporcjonalnym do czasu spadania, dochodzi do indukcyjnego
gt 2
uogólnienia, zwanego prawem swobodnego spadania: s= 2·
Charakterystyczne dla indukcji właściwej mają być dwa momenty:
(1) przejście "od szczegółów do ogółu", tzn. od faktów i twierdzeń
jednostkowych dotyczących zjawisk obserwowalnych do twierdzeń ogólnych, obejmujących całe klasy przedmiotów oraz
(2) przejście "od faktów znanych do faktów nieznanych" (np. gdy
Newton rozciąga swe prawo grawitacji na wszystkie obiekty
18
posiadające masę,
to tym samym przechodzi od faktów
zbadanych do nie zbadanych).
Rzecz jasna, indukcjonizm zdaje sobie spawę, że indukcja stanowi
rodzaj ekstrapolacji, w której przesłanki są za słabe, aby w sposób
niezawodny dojść do wniosków, jakie się z nich wyprowadza; że więc
indukcja właściwa - w odróżnieniu od dedukcji - jest metodą zawodną,
gdzie prawdziwość przesłanek nie gwarantuje prawdziwości wniosku.
W związku z tym współcześni indukcjoniści (Carnap, Reichenbach,
Hintikka) starali się wykazać, że wnioski indukcyjne - nie będąc
całkowicie pewne - mogą osiągać wysokie prawdopodobieństwo.
Dążąc do osiągnięcia wiedzy jak najpewniejszej, indukcjonizm
zaleca uznawanie poglądów i uogólnień jak najmniej ryzykownych,
a to ma oznaczać jak najmniej wykraczających za ramy doświadczenia
i tym samym w minimalnym stopniu narażonych na możliwość
obalenia. Ostrożność badacza ma polegać na minimalizowaniu zadań:
raczej trzymać się wąskich uogólnień obserwacyjnych, niż dochodzić
do szerokich i ryzykownych uogólnień teoretycznych oraz karkołom­
nych ekstrapolacji na nieznane zjawiska.
Łatwo zauważyć, że w nauce - zwłaszcza w dyscyplinach dojrzałych
i dobrze rozwiniętych - postępuje się odwrotnie: dąży się do
formułowania śmiałych i daleko wykraczających poza doświadczenie
hipotez, będących kandydatami na prawa i teorie naukowe, a więc
twierdzeniami (i zbiorami twierdzeń) o szerokim zasięgu stosowalności.
Zasadą poznania empirycznego, według indukcjonisty, jest reguła:
Obserwuj i uogólniaj wyniki obserwacji. Najpierw obserwacja, potem
teoria! Obserwuj, nie sugerując się żadną teorią!
Empiryczną sprawdzalność twierdzeń uznaje indukcjonista za
kryterium demarkacji, tj. podziału twierdzeń na naukowe i nienaukowe
(pozanaukowe): tylko te twierdzenia mają charakter empiryczny,
a więc mogą stanowić twierdzenia nauk empirycznych, które są
sprawdzalne empirycznie. Jeśli jakieś zdania są empirycznie nieroz- .
strzygalne, to nawet jeśli są sensowne (mają zawartość poznawczą)
- w co indukcjonista zwykle wątpi - nie należą do nauk empirycznych,
lecz systemów spekulatywnych, metafizycznych.
Przy tym indukcjonizm kładzie nacisk na potwierdzanie hipotez,
19
a nie na ich obalanie, co jest związane z regułą formułowania twierdzeń
jak najmniej ryzykownych, jak najbardziej prawdopodobnych. Jest to
tzw. weryfikacjonizm: dążność do maksymalnego potwierdzenia i uprawdopodobnienia istniejących i nowo formułowanych teorii.
2. Stanowisko hipotetyzmu (antyindukcjonizmu)
Program antyindukcjonisty składa się z dwu części: krytycznej oraz konstruktywnej (programowej). Część krytyczna zawiera
krytykę indukcjonizmu i metody indukcyjnej oraz weryfikacjonizmu.
Część konstruktywna formułuje pozytywny model badania naukowego, czyli zawiera opis poprawnej procedury naukowej, którą ma być
metoda stawiania i krytyki hipotez.
Koncepcję metody indukcyjnej, według której umysł biernie
gromadzi i szereguje obserwacje, hipotetyzm odrzuca jako niemożliwą
do zrealizowania: ani poznanie przednaukowe czy pozanaukowe, ani
poznanie naukowe nie polega na zbieraniu i uogólnianiu wyników
obserwacji nie kierowanych przez żadną teorię. Wszelkie obserwacje
oraz eksperymenty naukowe kierowane są przez probleIn y , które mają
być rozstrzygnięte, zakładają pewne hipotezy, wyniki zaś obserwacji
i eksperymentów interpretuje się zawsze w świetle określonych teorii
i hipotez. Nawet obserwacje przednaukowe były kierowane przez
rozwiązywane zagadnienia oraz wiedzę ogólną wcześniej nagromadzoną - np. wiedzę mitologiczną. A zatem wbrew rozpowszechnionemu
poglądowi, hipoteza jest metodologicznie wcześniejsza od obserwacji
i eksperymentu. Wszelkie badanie naukowe antycypuje fakty.
Z kolei weryfikacjonizm jest nieprawomocny, gdyż uzasadnienie
indukcyjne nie daje dostatecznej podstawy do uznania wniosku za
prawdziwy, a zwalnia od obowiązku krytyki twierdzeń "dostatecznie
uzasadnionych", "wysoce prawdopodobnych". Rodzi to wielce szkodliwą w nauce postawę "apologetyczną" wobec istniejących teorii,
stanowi zamaskowaną odmianę dogmatyzmu. Twierdzenie ogólne,
nawet najlepiej sprawdzone pozostaje hipotezą, którą trzeba stale
kontrolować, poddawać rzetelnym i surowym. próbom obalenia.
Wykazanie zgodności istniejących teorii z ustalonymi faktami em-
20
pirycznymi nie wystarcza, nie tylko do wykazania prawdziwości, lecz
nawet wysokiego prawdopodobieństwa teorii.
Pozytywny program współczesnego hipotetyzmu (reprezentowanego przez Poppera i jego zwolenników) głosi, że wszystkie twierdzenia
występujące w nauce, również twierdzenia jednostkowe i obserwacyjne
są hipotetyczne i odwoływalne. Nie istnieją bowiem niezinterpretowane
"dane obserwacyjne", "nagie fakty", nie istnieje "czyste, nie skażone
przez żadne wtręty hipotetyczne" doświadczenie, ani teoretycznie
"neutralny" język obserwacyjny.
Uznanie nieobserwacyjnego, a więc teoretycznego i hipotetycznego
w pewnym stopniu charakteru wszelkich terminów i zdań języka nauk
empirycznych prowadzi z kolei do wniosku, że nie istnieje baza
empiryczna nauki złożona z twierdzeń, które są nieodwoływalne.
Dlatego uznanie lub odrzucenie nawet zdań o najniższym stopniu
uteoretycznienia (zwanych zdaniami bazowymi) zachodzi zawsze
w pewnych ramach teoretycznych i wymaga podjęcia decyzji nie
wyzp.aczonej w sposób jednoznaczny przez dane obserwacyjne, a więc
decyzji w pewnym stopniu teoretycznej i zarazem w pewnej mierze
arbitralnej (powyższy pogląd Poppera zwany jest "oddolnym konwencjonalizmem").
Dla hipotetysty spostrzeżenie nie jest warunkiem wystarczającym
do uznania żadnego zdania za prawdziwe. Nie ma przeto metody,
która pozwoliłaby wykazać prawdziwość zdań empirycznych. Twierdzenia naukowe, w tym prawa i teorie, są zawsze hipotezami, czyli
twierdzeniami, które przyjmuje się zawsze tylko "na próbę", prowizorycznie i tymczasowo, tzn. tak długo, dopóki mimo usilnych prób ich
obalenia nie udaje się ich sfalsyfikować, czyli wykazać ich fałszywości.
Uczony ma stały obowiązek krytyki hipotez, w szczególności zaś
twierdzeń uniwersalnych, przez nieustanne ponawianie prób ich
obalenia.
Chociaż bowiem nie posiadamy metody wykazywania prawdziwości twierdzeń, wiemy, jak wykazywać, opierając się na doświadczeniu,
ich fałszywość. Mianowicie, stwierdzenie kontrprzypadku dla danego
twierdzenia oznacza jego falsyfikację, tj. praktycznie biorąc wystarcza
do wykazania jego fałszywości. Dlatego głównym celem postępowania
naukowego jest eliminowanie hipotez fałszywych, a więc falsyfikacja
21
(stąd
trzecia nazwa omawianego kierunku: falsyfikacjonizm), nie zaś
weryfikacja czy chociażby konfirmacja twierdzeń (weryfikacja polega
na wykazaniu prawdziwości twierdzenia, natomiast konfirmacja - na
jego częściowym potwierdzeniu).
Metodą stosowaną w naukach empirycznych okazuje się przeto nie
metoda indukcyjna, lecz metoda stawiania i krytyki hipotez. Metoda ta
polega (1) na swobodnym stawianiu jak najbardziej śmiałych i ryzykownych hipotez teoretycznych (tj. hipotez jak najbardziej ogólnych
i ścisłych, o jak największej zawartości informacyjnej i, co za tym idzie,
o najwyższym stopniu falsyfikowalności), dalej na (2) dedukcyjnym
wyprowadzaniu z nich wniosków obserwacyjnych oraz na (3) przeprowadzaniu jak najsurowszych prób ich obalenia poprzez wykazywanie niezgodności tych wniosków (prognoz) z wynikami doświadczenia.
3. Ocena przedstawionych stanowisk
Nie ulega wątpliwości, że omówione koncepcje - to
koncepcje w pewnej mierze komplementarne, częściowo uzupełniające
się. Chociaż hipotetyzm wydaje się stanowiskiem ba~dziej dojrzałym
i w większym stopniu odpowiadającym praktyce badawczej uczonych,
to jednak oba kierunki ujawniają pewną jednostronność oraz skrajność
ujęć, które są nie do przyjęcia.
Nie jest w szczególności prawdą - wbrew temu, co twierdzą
niektórzy hipotetyści - że "indukcja jest wymysłem indukcjonisty", że
metoda ta nie odgrywa i nigdy nie odgrywała w nauce żadnej roli. Tak
skrajny pogląd jest zapewne związany z okolicznością, że usprawiedliwienie indukcji, uprawomocnienie jej metod, napotyka na niepokonalne zda się trudności.
Stanowisko indukcjonisty odpowiada raczej procesowi kształ­
towania się wiedzy potocznej, szczególnie u dziecka i tzw. ludów
pierwotnych niż procesowi gromadzenia wiedzy naukowej . Jeśli idzie
o naukę, to nie ulega wątpliwości, że daje ono lepszy obraz rozwoju
wiedzy w niższych stadiach rozwoju nauki (w tzw. okresie przedteoretycznym poszczególnych dyscyplin) oraz w zastosowaniu do nauk
słabiej rozwiniętych, nie wychodzących poza język potoczny, aniżeli
w zastosowaniu do wyższych stadiów i w odniesieniu do dyscyplin
22
ścisłych, dojrzałych. Lepiej też odpowiada dyscyplinom eksperymentalnym i opisowym aniżeli dyscyplinom teoretycznym i wyjaśniającym.
W tych pierwszych bowiem indukcja odgrywała i odgrywa niewątpliwie
dość poważną rolę.
Jednakże opis w języku obserwacyjnym oraz formułowanie wąskich
praw empirycznych nie jest głównym celem nauki. Stanowią one
jedynie pewien "historyczny punkt wyjścia" w rozwoju wiedzy
naukowej. W dyscyplinach ścisłych podstawowa część wiedzy stanowiąca ich trzon sformułowana jest w języku teoretycznym, matematycznym. Nauka rozwinięta, taka jak fizyka teoretyczna, operuje
częściej idealizacjami aniżeli pojęciami doświadczalnej natury, a więc
jej pojęcia dotyczą przeważnie obiektów modelowych, zwanych typami
idealnymi, w doświadczeniu nie spotykanych, takich jak układ
izolowany, układ.inercyjny, punkt materialny, ciało doskonale sztywne, doskonale czarne, gaz doskonały, ciecz idealna itp. Do pojęć tego
rodzaju oraz formułowanych za ich pomocą praw nie można dojść na
drodze uogólniania faktów empirycznych.
N a podstawie procedury indukcyjnej można było dojść do sformułowania podstawowych twierdzeń fizyki Arystotelesa, np. twierdzenia, że "jeśli na ciało przestaje działać siła, to ciało przestaje się
poruszać". Nie można jednak było na tej drodze wyprowadzić praw
mechaniki klasycznej Newtona, np. zasady bezwładności głoszącej, że
"jeśli na ciało nie działa żadna siła, to zachowuje ono swój stan: stan
ruchu inercyjnego Gednostajnego i prostoliniowego) lub spoczynku".
Tutaj nieodzowne okazało się zastosowanie eksperymentu myślowego
oraz metody idealizacji: wszak ciała, na które nie działają żadne siły nie
istnieją i nie dają się obserwować.
Przyrodnicy, w odróżnieniu od metodologów, zawsze byli, jak się
zdaje (z małymi wyjątkami), hipotetystami raczej niż indukcjonistami,
i nawet w wypadku, gdy jak Newton sądzili, że podstawowa metoda
dochodzenia do praw i teorii to metoda indukcyjnego uogólniania
w tradycyjnym, wąskim znaczeniu tego terminu, to w praktyce
stosowali przeważnie metodę stawiania hipotez (antycypacji faktów,
przewidywania przebiegu i charakteru zjawisk), zawierającą w sobie
metodę idealizacji oraz metodę modelowania i analogii, a więc metody
nie mieszczące się w ramach wąsko pojmowanej indukcji. Zdawali też
23
sobie niejako od początku sprawę, że doświadczenia mogą być
rozmaicie interpretowane, tak że nigdy nie dochodzi się do jednoznacznych wyników poznawczych na podstawie samej obserwacji.
4. Metodologiczny schemat badania naukowego
Z tego co powiedzieliśmy wynika, że nauka empiryczna
, stosuje nie jedną, lecz dwie zasadnicze metody, które się jednak tylko
częściowo wykluczają. Jako metody' komplementarne uzupełniają się
wzajemnie i jak się okazuje mogą być nawet podciągnięte pod pewien
wspólny schemat. Obie one zdają się odgrywać rolę w dowolnej nauce
empirycznej, ale niejednakową w różnych naukach i na różnych
stadiach ich rozwoju.
Schemat badania naukowego wskazujący na podstawowe kroki
metody naukowej powinien tę dwoistość metod uwzględniać; musi
przeto wskazywać zarówno na ich związki, jak i żachodzące między
nimi różnice. Najpierw przedstawimy "zubożony" schemat, który
uwzględnia jedynie cechy wspólne obu metod.
Schemat wyroznm cztery stadia metody naukowej oraz trzy
podstawowe kroki wiodące od jednego stadium do drugiego. Kolejnymi stadiami (wynikami) zastosowania metody naukowej są: fakty
- teorie - przewidywania - fakty. Ponieważ fakty stanowiące czwarte
stadium mogą wystąpić i nieraz występują w charakterze faktów
rozpoczynających nowy cykl zastosowania metody naukowej, przeto
w praktyce stadia metody naukowej redukują się do trzech. Kolejnymi
krokami (operacjami) metody naukowej wiodącymi od jednego
stadium do drugiego są: budowanie (na podstawie faktów) teorii,
dedukcja (z teorii) przewidywań oraz sprawdzanie teorii poprzez
konfrontację przewidywań z faktami. Schemat powyższy jest wspólny
dla obu metod stosowanych w naukach empirycznych, jest przeto do
przyjęcia zarówno dla indukcjonisty, jak i dla hipotetysty.
A oto treść, jaką wkłada w ten schemat indukcjonista.
świat konstrukcji
teoretycznych:
teorie
__d_ed_u_kc-==.J_a__ -+ przewidywania
(analiza)
indukcja (uogólnianie)
świat konstrukcji
teoretycznych:
teorie
dedukcja
-----=----+
weryfikacja
(lub konfirmacja)
przewidywania
(analiza)
świat faktów:
empirycznych:
budowanie teorii
fakty
fakty
sprawdzanie teorii
świat
faktów
empirycznych:
fakty
fakty
W schemacie tym linia pozioma oddziela świat eksperymentatora,
uniwersum faktów, od świata teoretyka - świata matematyki
i innych konstrukcji teoretycznych (uniwersum konstruktów). W obszarze dolnym (pod linią) znajdujemy ludzi przeprowadzających
obserwacje i eksperymenty, w obszarze górnym ludzi operujących
pojęciami teoretycznymi oraz wzorami matematyki.
będący
24
Zgodnie z interpretacją indukcjonisty pierwszy krok, wiodący od
obserwacji do teorii, polega na indukcyjnym uogólnianiu ("gołych")
faktów empirycznych. Jest to przy tym uogólnianie na fakty nieznane,
należące do określonej klasy, tego co wiemy pod interesującym nas
względem o faktach znanych tejże klasy. W naukach zaawansowanych ów proces indukcji niezupełnej prowadzi do sformułowania
określonych wzorów matematycznych, które interpretuje się tak, by
obejmowały one fakty włączone do teorii. Teraz uczony stoi przed
pytaniem: czy jest to rzeczywiście to, czego szukałem? Aby odpowiedzieć na to pytanie, zmuszony jest powrócić do świata faktów.
25
nie sposób jednak sprawdzić bezpośrednio,
przykładając je niejako do opisywanej rzeczywistości. Uprzednio
musimy wiedzieć, co ogólne schematy i ogólne twierdzenia teoretyczne
mają do powiedzenia o empirycznych faktach jednostkowych. W tym
celu trzeba przeanalizować twierdzenia ogólne, zobaczyć, jaka treść
empiryczna jest w nich zawarta. Nie sposób bowiem np. zaobserwować, że słońce zgodnie z prawem grawitacji oraz prawami mechaniki
będzie wschodzić "wieczp.ie", a ściślej mówiąc tak długo, jak długo
występować będą odpowiednie warunki początkowe i brzegowe.
Zaobserwować możemy tylko, że wzeszło ono przedwczoraj, wczoraj,
dzisiaj, że wzejdzie jutro itd. Trzeba więc z praw ogólnych wyprowadzić
prognozy dotyczące tego, co rzeczywiście się zdarzy. Ten krok to
dedukcja, tj. analiza logiczna tego, co prawa ogólne mówią o poszczególnych zdarzeniach empirycznych. Teraz następuje krok trzeci:
trzeba powrócić do zaobserwowanych faktów, porównać je z przewidywaniami i rozstrzygnąć, czy wyprowadzone prognozy były słuszne. Jest
to sprawdzanie teorii, w celu wykazania jej wysokiego stopnia
prawdopodobieństwa lub nawet prawdziwości, czyli konfirmacja teorii
lub weryfikacja teorii.
A teraz uszczegółowienie schematu poznania naukowego odpowiadające stanowisku hipotetysty.
Konstrukcji
myślowych
świat konstrukcji
teoretycznych:
teorie
___
ded_u_k---=:cj_a_ _ -+ przewidywania
(analiza)
stawianie hipotez
falsyfikacja
świat faktów
empirycznych:
l
fakty
fakty
Jeśli chcemy powyższy schemat opisać ze stanowiska hipotetyzmu,
to stajemy oko w oko z następującą zasadniczą trudnością: na czym
polega stawianie hipotez, wysuwanie pomysłów; co to za proces, wedle
26
jakich reguł on przebiega? Czym się w szczególności różni stawianie
hipotez od indukcyjnego uogólniania?
Einstein we wspomnianym wcześniej odczycie" O metodzie badaJ.?-ia
teoretycznej fizyki" wypowiada pogląd, że skoro metoda naukowa
zawiera w sobie jako dwa główne i naj trudniejsze kroki: stawianie
hipotez oraz dedukcję, to student fizyki nie może wynieść ze swej
uczelni opanowania tej metody w całości. To, czego uczą go usilnie.
i starannie w uczelni (w szkole), to dedukowanie, za pomocą potężnych
środków matematycznych, z przyjętych założeń wszelkich możliwych
wniosków. Nikt go jednak nie uczy tego, co najdonioślejsze zarówno
dla teoretyka, jak i eksperymentatora, tego co najważniejsze i najbardziej twórcze w metodzie naukowej: jak wpadać na dobre pomysły.
Nikt go nie uczy, w jaki sposób dochodzić do założeń wyjściowych
teorii, do sformułowania hipotez najlepiej nadających się na postulaty
teorii z jednej strony, oraz dochodzić do hipotez prowadzących do
udanych i płodnych eksperymentów z drugiej. Wytłumaczenie tego
faktu jest, zdaniem Einsteina, oczywiste: nikt go nie uczy, gdyż żadne
reguły nie są tu znane. Sądzi on nawet, że reguły procesu wpadania na
pomysły, stawiania hipotez, nigdy nie zostaną poznane, że pozostaną
na zawsze tajemnicą, nawet dla geniusza.
Zobaczymy dalej, że sprawa powyższa nie przedstawia się tak
beznadziejnie, jak ją widział Einstein. Ale osiągnięcia w tej dziedzinie
są, jak dotąd, rzeczywiście skromne, a postęp powolny i uciążliwy. Jeśli
idzie o drugi krok metody naukowej, to nie różni się bn w ujęciu
hipotetysty od tegoż kroku w ujęciu indukcjonisty: wedle obydwu
polega on na dedukcji, na wyprowadzaniu z teorii takich przewidywań,
które można byłoby konfrontować z faktami, na analizie zawartości
informacyjnej teorii. Co do trzeciego kroku, to znowu jest on
ujmowany przez każdego z nich inaczej: wedle indukcjonisty, będącego
wszak weryfikacjonistą, polega on na wykazywaniu wysokiego prawdopodobieństwa lub nawet prawdziwości teorii, według hipotetysty
natomiast - jako falsyfikacjonisty - na usilnym dążeniu do eliminacji
jak największej liczby istniejących hipotez poprzez ich kolejne obalanie
(wykazywanie fałszywości, falsyfikację).
27
5. O procesie tworzenia hipotez
Proces indukcyjnego uogólniania nie zawiera w sobie nic
tajemniczego. Przebiega on wedle znanych reguł indukcji przez proste
wyliczenie (enumeracyjnej) lub reguł indukcji eliminacyjnej (tzw.
kanonów Mi11a). Dość zagadkowy pozostaje natomiast proces stawiania hipotez, wysuwania pomysłów.
Problemem tym zajmuje się głównie psychologia, mianowicie ten jej
dział, który nosi nazwę psychologii poznawczej. N a czym polega proces
wytwarzania pomysłów? Jest to zagadnienie doniosłe, gdyż nowoczesne
społeczeństwo potrzebuje coraz to więcej umysłów twórczych i oryginalnych. Idzie więc o to, aby w sposób świadomy i zaplanowany
kształtować te cechy u ludzi, aby realizować w tym względzie określone
cele pedagogiczne.
Niestety, niewiele wiemy o tych procesach. Współczesna wiedza
psychologiczna na ten temat jest bardzo skromna i nie uporząd­
kowana: procesem wytwarzania pomysłów i twórczości w różnych
dziedzinach zajmowali się dotąd częściej uczeni różnych dziedzin oraz
artyści niż psychologowie. Mamy w tym przedmiocie interesujące prace
matematyków, lekarzy, metodologów, psychologów (H. Poincare, J.
Hadamard, W. Beveridge, N. Łubnicki, J. Kozie1ecki J inni). Wiedza
psychologów na ten temat zasługuje jednak na wyróżnienie, gdyż jest
pewniejsza.
Przyjmijmy, za niektórymi cybernetykami oraz psychologami, że
człowiek posiada dwa względnie wyodrębnione systemy myślowe,
które funkcjonują w sytuacji problemowej i w których zachodzą
odpowiednio procesy wytwarzania pomysłów oraz ich selekcji (wyboru
i oceny). Pierwszy z nich to generator pomysłów - czyli system
wytwarzający różne hipotezy i pomysły; drugi to ewaluator pomysłów
- czyli system dokonujący wyboru i oceny owych hipotez i pomysłów,
system sprawdzający je (ang. evaluate-oceniać). Dwa te systemy
występują zwykle w urządzeniach cybernetycznych, których praca
polega na wytwarzaniu odpowiednich ruchów (posunięć) i ich selekcji
wedle określonych kryteriów.
Z kolei wyróżnimy dwa rodzaje problemów rozwiązywanych przez
człowieka. Pierwszy rodzaj, to problemy typu "odkryć": można odkryć
28
jakieś
zjawisko, relację, zależność (przyczynową, funkcjonalną) lub
które występują w rzeczywistości. "Odkryć" w tym
sensie znaczy odzwierciedlić, odbić, skopiować, zmodelować itp.
Właśnie pomysły rozwiązania występujące w tej klasie problemów
nazywamy hipotezami. Hipoteza występuje tu jako domniemane
odkrycie. Odkryć naukowych dokonuje odkrywca: jest nim zwykle
uczony (np. Archimedes, Newton, Einstein). Problemy drugiego
rodzaju, to problemy typu "wynaleźć", "skonstruować", " wytworzyć "
(to, czego dotąd nie było, wytworzyć coś nowego). Rozwiązuje je
zwykle wynalazca, konstruktor (np. Edison, L Łukasiewicz, Marconi),
a także uczony i artysta: wynajdujemy nie tylko nowe urządzenia
techniczne i nie tylko konstrukcje maszyn, lecz także tworzymy pojęcia,
metody, wątki literackie. Nawet teorie naukowe są w znacznej mierze
realizacją zamierzeń konstruktorskich ("budowanie teorii").
Rozwiązania problemów pierwszego rodzaju, czyli hipotezy, oceniamy pod względem ich zgodności z rzeczywistością, czyli prawdziwości; rozwiązania problemów drugiego rodzaju, np. pojęcia czy metody,
oceniamy pod względem ich skuteczności, ekonomiczności, prostoty,
oryginalności, łatwości wykorzystania czy w ogóle możności wykorzystania dla realizacji danego celu itp. Pojęcie pomysłu okazuje się więc
szersze niż pojęcie hipotezy: pomysł może być bądź hipotezą, bądź
konstrukcją (projektem). Nas interesuje tutaj głównie proces rozwiązywania problemów pierwszego rodzaju: proces wytwarzania
hipotez wiodących do odkryć, czyli proces wytwarzania pomysłów
typu odkryć. Ma on jednak wiele cech wspólnych z procesem
wynalazczości. Wydaje się nawet, że żaden z tych procesów nie
występuje w czystej postaci, bez "domieszki" drugiego: odkrycie
naukowe ma w sobie zawsze coś z wynalazku, a wynalazek coś
z odkrycia. Proces wytwarzania pomysłów (w szerokim sensie) ma
szereg cech różniących go od procesów rozumowania, wyboru, oceny
oraz sprawdzania. Przede wszystkim proces wytwarzania pomysłów
(wytwarzania informacji), w tym stawiania hipotez, to proces heurystyczny. Nie przebiega on zgodnie z zasadami logiki, tzn. nie jest
kierowany przez reguły logiczne, reguły odznaczające się niezawodnością, aczkolwiek nie musi im przeczyć. Jest on w wysokim stopniu
intuicyjny w tym sensie, że jest kierowany w znacznej mierze przez
prawidłowość,
29
"wyczucie" problemu i "uchwycenie" sytuacji problemowej i nie daje
się podporządkować ścisłym regułom logiki. (Stąd właśnie bierze się
przekonanie Einsteina i wielu innych uczonych, że proces ten nigdy nie
będzie zbadany, że reguły, według których on przebiega nigdy nie będą
znane.) Co więcej, jak wykazują badania psychologiczne, zdolności do
wysuwania pomysłów są często ujemnie skorelowane ze zdolnością
przeprowadzania rozumowań, w szczególności ścisłych wnioskowań
dedukcyjnych, przebiegających zgodnie z regułami logiki.
Proces wysuwania pomysłów nie jest jednak procesem nie podlegającym żadnym regułom. Jest to proces heurystyczny, gdyż jest
regulowany i kierowany przez specyficzne reguły zwane regułami
heurystycznymi czyli heurystykami. Przeciwieństwem procesów heurystycznych są procesy algorytmiczne przebiegające zgodnie z określonymi
algorytmami. Termin "heurystyka" pochodzi od greckiego słowa
heurisco oznaczającego sztukę odkrywania nowych rzeczy, np. umiejęt­
ność formułowania hipotez. Według psychologów, heurystyki to
reguły, zasady, wskazówki, taktyki, a nawet tricki czy intuicje, które
regulują przebieg procesu rozwiązywania zagadnień, lecz nie gwarantują osiągnięcia pożądanego wyniku. Heurystyki to więc zawodne
reguły wytwarzania pomysłów. Należą do nich np. wskazbwki w rodzaju: "rozkładaj proces wytwarzania na szereg elementarnych procesów
myślowych", "porzucaj bezowocne kierunki poszukiwań", "rozpoczynaj rozwiązanie problemu od dokładnej analizy informacji" itp.
Wyróżnia się dwa rodzaje reguł heurystycznych: 1) heurystyki
ogólne, stosowane do rozwiązywania większości lub wszystkich
problemów oraz 2) heurystyki specyficzne mające zastosowanie do
sytuacji problemowych określonego typu, np. poszczególnych metod
obserwacji, poszczególnych gier, rodzajów sportu itp. Do pierwszych
zaliczamy zalecenia w rodzaju: "przed sformułowaniem hipotezy
zbadaj dokładnie sytuację problemową", "rozwiązując zadanie unikaj
pośpiechu", "w procesie rozwiązywania zadania pamiętaj o alternatywnych możliwościach, zachowaj giętkość i elastyczność podejś­
cia", "nie przenoś pochopnie znanych ci metod na nowe sytuacje
problemowe", "nie zapominaj o możliwości przypadkowego rozwiązania problemu", "odmierz siedem razy, zanim odetniesz" itp. Do
heurystyk specyficznych, np. gry w szachy, zaliczymy zalecenia:
30
"przedkładaj przewagę sytuacyjną nad przewagę figurową", "analizuj
sytuacje, które mogą ci zapewnić przewagę sytuacyjną lub figurową",
"odrzuć ruch, który stawia hetmana w niebezpieczeństwie" itp. Do
heurystyk specyficznych metody ankietowej zaliczymy takie wskazówki, jak: "stawiaj pytania'tak, by ich sformułowania nie sugerowały
rodzaju odpowiedzi", "nie pytaj o sprawy prestiżowe, co do których
ankietowani chcieliby uchodzić za lepszych, aniżeli są naprawdę",
"organizuj badania tak, by ankietowani byli przekonami, że anonimowość ich odpowiedzi jest zagwarantowana" i inne.
Właściwościami różniącymi reguły heurystyczne od reguł algorytmicznych są: 1) zawodność oraz 2) pewna nieokreśloność treści i zasięgu
możliwych zastosowań. Jeśli idzie o zawodność, to nawet najlepsze
reguły i taktyki heurystyczne nie gwarantują, że ich zastosowanie
doprowadzi do rozwiązania problemu. Są to więc reguły, z którymi
zawsze wiąże się pewne ryzyko niepowodzenia, reguły pozwalające się
spodziewać, lecz nie zapewniające w każdym wypadku sukcesu,
"reguły nadziei". Dlatego proces wytwarzania hipotez nie zawsze
prowadzi do powstania nowych informacji, nowej wiedzy. Twórczość
pozostaje przeto pewną sztuką, taktyką odkrywania, strategią poszukiwania, nie zaś działalnością pewną, niezawodną i w tym sensie
"naukową", algorytmiczną. Zawodność jest główną cechą różniącą
heurystyki od algorytmów będących przepisami operacji niezawodnych, zawsze wiodących do sukcesu, O ile oczywiście odpowiednie
reguły algorytmiczne pozostają nie naruszone. Zresztą poszczególne
reguły heurystyczne mogą się znacznie różnić od siebie stopniem
niezawodności, skuteczności oraz racjonalności. Niełatwo jest jednak
w poszczególnych wypadkach ustalić, które z nich są lepsze, a które
gorsze.
Druga osobliwość heurystyk, różniąca je od algorytmów, to ich
nieokreśloność, nieścisłość i niekompletność sformułowania. Można
powiedzieć, że heurystyki nie są przepisami tak "pedantycznymi" jak
algorytmy: nie są podane w postaci listy ściśle określonych, elementarnych operacji nad znakami (czy operacji myślowych), które należy
wedle określonej kolejności wykonać, aby rozwiązać problem. Ogólnie
biorąc, różnica między heurystykami a algorytmami jest pod tym
względem znaczna. W pewnych jednak wypadkach różnica między
31
algorytmami a heurystykami
się
zaciera; niejednokrotnie, dla robotów
sztucznych inteligencji itp. opracowuje
się takie heurystyki, które pod względem stopnia precyzji przypominają algorytmy.
Psychologowie twierdzą, że każdy człowiek dysponuje całą rodziną
heurystyk, mniej lub bardziej racjonalnych, czasami nawet ze sobą
sprzecznych. Część z nich funkcjonuje zapewne nieświadomie, tak iż
człowiek może nie zdawać sobie sprawy z tego, że ukierunkowują one
jego poszukiwania. W miarę uczenia się oraz rozwiązywania coraz to
nowych problemów człowiek przyswaja sobie wciąż nowe reguły
heurystyczne, część z których jest zapewne "spychana" w podświadomość. To, jaki system heurystyczny znajdzie w danym wypadku
zastosowanie zależy od struktury problemu, celu w jakim jest on
rozwiązywany oraz zdolności intelektualnych człowieka.
Dokładniej strukturę procesu twórczego przedstawia J. Kozielecki
w pracy Koncepcja transgresyjna człowieka (rozdz. V: "Działania
twórcze i transgresyjne"), PWN, Warszawa 1987).
przypominających człowieka,
Metodologia opisowa
a metodologia normatywna
Filozofia nauki od dawna boryka się z problemem: czy
jaka ona jest faktycznie, czy też taką, jaka
być powinna. Jest to spór o to, czy metodologia nauk powinna być
metodologią opisową czy metodologią normatywną.
W XIX stuleciu metodolodzy, pragnąc stać na twardym gruncie
historii nauki, starali się ujmować naukę w sposób czysto opisowy,
zdając sprawę z tych metod dochodzenia do twierdzeń naukowych
i metod ich uzasadniania, które uczeni faktycznie stosowali w swej
praktyce badawczej. Taki charakter miały w szczególności indukcj onistyczna koncepcja nauki J. St. Milla oraz hipotetystyczna koncepcja
nauki Jevonsa.
W naszym stuleciu zdano sobie jednak sprawę z faktu, że
metodologia czysto opisowa nie jest możliwa, gdyż samo pojęcie nauki
ma częściowo wartościujący charakter: aby opisywać wiedzę naukową
oraz sposoby dochodzenia do niej trzeba już wiedzieć, co nauką jest
a co nie jest, a tego nie da się ustalić na drodze czysto opisowej.
Dlatego XX-wieczne metodologie nauk na ogół mają wyraźniej
zaznaczony aspekt normatywny. Jest on mniej widoczny w neopozytywistycznej wizji nauki (Carnapa, Reichenbacha, Hempla i innych), ale
już całkiem wyraźny w hipotetyzmie Poppera i jego następców
(Lakatosa czy Watkinsa). Metodologia o wyraźnym obliczu normatywnym pragnie uchwycić kryteria naukowości wiedzy, czyli te
walory wiedzy, które czynią ją właśnie wiedzą naukową. Pragnie tym
samym wyznaczyć model racjonalności naukowej (czy raczej następujące po sobie modele racjonalności, jeśli uwzględnić fakt, iż
należy opisywać naukę taką,
33

Podobne dokumenty