Czy możliwa jest automatyzacja odkrycia naukowego
Transkrypt
Czy możliwa jest automatyzacja odkrycia naukowego
Piotr Giza Czy możliwa jest automatyzacja odkrycia naukowego: perspektywy głównych programów badawczych w dziedzinie teorii odkryć maszynowych Streszczenie W referacie rozważam pewne zarzuty natury filozoficznej i epistemologicznej wysuwane przez niektórych filozofów nauki wobec programu automatyzacji odkryć naukowych podjętego przez badaczy w dziedzinie sztucznej inteligencji. Jedne zarzuty dotyczą kwestii fundamentalnych, jak niemożność zaprezentowania wyników odkrycia w języku semantycznie zinterpretowanym, brak niezależnego od poznającego podmiotu, przedstawionego za pomocą pojęć naukowych przedmiotu odkrycia, czy fakt, że odkrycia dokonane przez systemy nie wnoszą nic nowego do dziedziny poznania. Inne wytykają niedostatki a nawet błędy metodologiczne poszczególnym programom badawczym czy twórcom systemów. Staram się odpowiedzieć na pytanie, na ile zarzuty te są trafne i jakie wobec tego perspektywy rozwoju systemów odkryć wyłaniają się na dającą się przewidzieć przyszłość. 1 Wstęp W latach 1970. kilku badaczy sztucznej inteligencji w USA zwróciło swoje zainteresowania na obszar uważany jak dotąd jedynie za domenę geniuszu – odkrycia naukowe. Chodziło o zaprojektowanie i uruchomienie systemów komputerowych, które miały modelować historyczny proces odkrycia naukowego w dziedzinach takich jak matematyka, fizyka, chemia, czy biologia. Teoria odkryć maszynowych leży na obszarze zainteresowań zarówno filozofii nauki, jak i samej nauki. Jest formą ścisłego uprawiania filozofii nauki zmuszającą do dbałości o szczegóły i precyzyjnego wyartykułowania swoich idei. Współczesne systemy odkryć mają też coraz większe znaczenie dla samej nauki: są one w stanie znaleźć równania empiryczne pasujące do danych wejściowych w laboratorium, przeanalizować bazy danych pod kątem użytecznej wiedzy, formułować i uzasadniać hipotezy na temat ukrytej struktury materii wyjaśniającej zjawiska obserwowalne. W idealnym, docelowym przypadku możemy sobie takiego maszynowego odkrywcę wyobrazić jako robota, który przeprowadza eksperymenty i rozwija teorie na podstawie analizy uzyskiwanych danych. Badaniom nad komputerowym modelowaniem odkryć naukowych przyświeca kilka celów. Pierwszy z nich to poznanie psychologicznych procesów przetwarzania informacji związanych z odkryciem naukowym dokonywanym przez badaczy i odtworzenie ich za pomocą systemów komputerowych. Drugi cel to przynajmniej próba naszkicowania normatywnej teorii odkrycia naukowego, podanie pewnych reguł, którymi należałoby się kierować, chcąc osiągnąć sukces w dokonywaniu odkryć. Trzeci cel polega na zbadaniu wzajemnych relacji pomiędzy procesami odkrywania i weryfikacji teorii. Wreszcie czwarty cel to próba stworzenia nowych metod analizy historycznego procesu odkrycia, oprócz istniejących, tradycyjnych metod opisowych i logiczno-formalnych. Rozważania filozoficzne czy metodologiczne na temat systemów odkryć można odnieść do tego, czy i w jakim stopniu wspomniane cele są realizowane. W perspektywie poznawczej czy historycznej systemy jawią się jako próba rekonstrukcji procesu odkryć dokonywanych historycznie przez ludzi. Na tym polu dokonania teorii odkryć maszynowych są raczej skromne i, jak sami badacze przyznają, cel ten ma, jak dotąd, raczej marginalne znaczenie. Z perspektywy metodologicznej natomiast znacznie ważniejszą sprawą jest osiągnięcie celu drugiego: sformułowania zasad czy metod, którymi należy się kierować w działalności badawczej. Chodzi więc bardziej o osiągnięcie skuteczności i efektywności systemu niż o wierne odtworzenie rozumowań ludzkich badaczy. Miarą skuteczności owych norm czy metod postępowania są osiągnięcia samych systemów. Systemy odkryć są więc z jednej strony komputerowo uprawianą filozofią, a częściowo, i w mniejszym stopniu, historią nauki zmuszającą do dbałości o szczegóły i dającą większe możliwości niż podejście tradycyjne. Z drugiej strony, jeśli tradycyjnie filozofię nauki umieszcza się w tzw. kontekście uzasadniania, to teoria odkryć maszynowych mieści się w normatywnym podejściu do odkrycia, rozszerzając zakres badań filozofii nauki. Gotowe systemy to, jak twierdzą ich autorzy, konstruktywny dowód istnienia metody odkrycia naukowego. W kolejnych sekcjach przedstawię krótko osiągnięcia i porównam założenia metodologiczne tkwiące u podstaw trzech głównych tradycji badawczych zajmujących się komputerowym modelowaniem odkryć naukowych. Są to: grupa skupiona wokół Herberta Simona, badacze 2 wywodzący się z tzw. tradycji Alana Turinga oraz przedstawiciele programu badawczego zwanego HHNT.1 Nie wszyscy autorzy systemów odkryć naukowych czy przedstawiciele głównych programów badawczych byli zainteresowani sformułowaniem explicite głębszych założeń metodologicznych, a tym bardziej filozoficznych, swoich dociekań badawczych. Wielu twórców systemów po prostu przyjęło jako punkt wyjścia jakąś umiejętność ludzkich badaczy w konkretnej, historycznej sytuacji odkrycia naukowego i postanowiło dokonać komputerowej symulacji tego odkrycia.2 Innym badaczom, np. twórcom systemów eksperckich z tradycji Alana Turinga, przyświecały cele czysto praktyczne, jak stworzenie użytecznych systemów wspomagających pracę badaczy, lekarzy czy ekspertów w przemyśle. Jeszcze inni badacze (grupa HHNT) stawiali przed sobą ambitne cele teoretyczne, polegające na stworzeniu skomplikowanego, pojęciowego modelu zachowania się ludzkiego umysłu w sytuacjach problemowych i na jego realizacji komputerowej. Można bez wielkiej przesady stwierdzić, że jedynie grupa Simona wypracowała konsekwentny, spójny program metodologiczny oraz wyraźnie sformułowała cele, jakie stoją przed systemami odkryć naukowych. 2. Grupa Herberta Simona Podstawowe założenie metodologiczne teorii odkryć maszynowych zostało chyba najtrafniej sformułowane w znanej książce Langleya, Simona, Bradshawa i Żytkowa, Scientific Discovery: Computational Explorations of the Creative Processes (1987). Brzmi ono następująco: […] mechanizmy odkrycia naukowego nie mają specyficznego, unikalnego dla tej działalności charakteru, lecz stanowią szczególny przypadek ogólnych mechanizmów rozwiązywania problemów (Langley et al., 1987, s. 5). Rzecz jasna autorzy są świadomi ewidentnych, zdawałoby się, różnic pomiędzy zwykłym rozwiązywaniem problemów a procesem odkrycia naukowego, twierdzą jednak, że nie podważają one przedstawionej powyżej tezy, a to z dwóch powodów: po pierwsze, rozwiązywanie skom_____________ 1 Skrót ten, zaproponowany przez M. Alai (2004), pochodzi od nazwisk czterech badaczy: J. Hollanda, K. Holyoaka, R. Nisbetta i P. Thagarda. 2 Taką opinię wygłasza jeden z najwybitniejszych twórców systemów odkryć Jan Żytkow (1993, s. 39). 3 plikowanych problemów w dziedzinie sztucznej inteligencji dokonuje się poprzez ich zdekomponowanie na prostsze podproblemy, a następnie kolejne ich rozwiązywanie; po drugie, owe podprocesy czy komponenty procesu odkrycia naukowego nie różnią się w istotny jakościowy sposób od procesów występujących w rozwiązywaniu zwykłych, dostatecznie skomplikowanych problemów. Teoria rozwiązywania problemów, na którą powołują się autorzy, to oczywiście koncepcja inteligencji oparta na przetwarzaniu informacji w postaci symbolicznej (information-processing theory of intelligence). Głosi ona, że istotą inteligencji tak sztucznej, jak i naturalnej jest zdolność formalnego manipulowania symbolami reprezentującymi różne aspekty rzeczywistości (Newell i Simon, 1972; Simon, 1979). Jej podstawowym pojęciem jest system symboli fizycznych (physical symbol system), zwany też systemem przetwarzania informacji o postaci symbolicznej (information-processing system). Argumenty, jakie przytacza Simon i jego współpracownicy na poparcie twierdzenia że odkrycie naukowe sprowadza się do rozwiązywania problemów, są dwojakiego rodzaju. Po pierwsze, twierdzą oni, że najlepszym uzasadnieniem słuszności tego założenia, a ogólnie całego programu badawczego teorii odkryć maszynowych, jest skuteczność działania systemów odkryć, że systemy te „[…] stanowią konstruktywny dowód istnienia normatywnych mechanizmów odkryć” (Żytkow, 1993, s. 38), a zarazem istnienia szeroko pojętej „logiki” odkrycia naukowego. Autorzy zastrzegają się jednak, że nie chodzi tu o dokładną symulację rzeczywistych zachowań odkrywców w sytuacjach problemowych. Koncentrują się raczej na poziomie heurystyk, starając się włączyć do nich metody, którymi, według nich, naukowcy posługują się przy poszukiwaniu regularności w przyrodzie. Po drugie, autorzy wyróżniają rozmaite formy twórczej działalności naukowej związanej z odkryciami, starając się wyeksplikować je przy pomocy stosowanych w teorii sztucznej inteligencji zasad rozwiązywania problemów, nawet jeśli na obecnym etapie nie udało się jeszcze dokonać ich symulacji przy pomocy systemów komputerowych. Przede wszystkim Simon, główny jeśli można tak powiedzieć ideolog grupy, stwierdza bardzo mocno, że nie istnieje jakiś jeden „tajemniczy proces odkrycia naukowego”, lecz mamy do czynienia z całą różnorodnością form działalności naukowej koniecznych do tego, aby nauka mogła dokonywać odkryć (Langley et al., 1987, s. 58; Simon, 1992b, s. 69). Naukowcy w swej pracy wykonują bardzo różnorodne czynności ba- 4 dawcze: odkrywają i opisują problemy, znajdują dla nich odpowiednie reprezentacje, projektują aparaturę konieczną do przeprowadzenia doświadczeń, planują procedury i strategie eksperymentalne, planują i wykonują eksperymenty, uzyskują dane, prowadząc obserwacje, formułują prawa i teorie na podstawie danych, używając rozumowań opartych na matematyce i innych dziedzinach wiedzy, wyprowadzają konsekwencje ze swoich teorii czy tworzą teorie, których zadaniem jest głębsze wyjaśnienie praw o charakterze opisowym. Otóż Simon twierdzi, że wszystkie te dziedziny działalności naukowej są formą rozwiązywania problemów i utrzymuje, że dysponujemy bezpośrednimi empirycznymi dowodami prawdziwości tego twierdzenia dla większości, jeśli nie wszystkich opisanych grup. Wyprowadzanie praw ze zbioru danych jest zapewne dziedziną, w której grupa Simona ma największe osiągnięcia. Seria coraz doskonalszych i wzbogacanych o kolejne możliwości programów, począwszy od BACON.1, a skończywszy na BACON.5 oraz system FAHRENHEIT (Żytkow, 1987) zostały zaprojektowana w tym właśnie celu. Programy te symulują odkrycie wielu znanych praw, głównie z dziedziny fizyki z XVII, XVIII i XIX wieku, takich jak prawo Keplera, prawo swobodnego spadku Galileusza, prawo załamania Snelliusa, prawo bilansu cieplnego Blacka czy prawo Ohma. Inne programy, jak GLAUBER, formułują prawa o charakterze jakościowym na podstawie również jakościowych danych opisujących substancje wchodzące w reakcje chemiczne (Langley et al., 1987, rozdz. 6). Planowanie eksperymentów jest kolejną dziedziną, którą według Simona udało się zbadać przy pomocy symulacji komputerowych. Powołuje się on na wyniki osiągnięte wspólnie z D. Kulkarni (Kulkarni i Simon, 1988) nad odtworzeniem przy pomocy programu komputerowego KEKADA serii eksperymentów, jakie na początku lat 1930. przeprowadził niemiecki biolog Hans Krebs. Krebsowi udało się zbadać reakcje syntezy mocznika w żywych tkankach przez stopniowe modyfikowanie planu badań w oparciu o dane uzyskane w poprzednich eksperymentach w taki sposób, aby zdobyć istotne dla dalszych badań dane. System KEKADA zawiera heurystyki, które stosował w swoich badaniach Krebs. Co więcej, na podstawie dotychczas uzyskanych danych jest on w stanie tworzyć pewne oczekiwania na temat wyników przyszłych eksperymentów i w przypadku ich niezgodności z danymi stosować strategię „odpowiedzi na dziwne zjawisko”, polegającą na zlokalizowaniu tego zjawiska i po- 5 szukiwaniu jego mechanizmów. Takie właśnie postępowanie doprowadziło Krebsa do ustalenia rzeczywistych mechanizmów reakcji. Teorie wyjaśniające. Simon dostrzega fakt, iż wiele odkryć dokonanych przez programy BACON polega jedynie na formułowaniu uogólnień empirycznych (o postaci funkcji matematycznych wielu zmiennych), będących, jak to określa, „skróconym opisem danych”. Funkcje te nie wyjaśniają, dlaczego dane przyjmują takie, a nie inne wartości. Przykładowo, „odkryte” przez system trzecie prawo Keplera opisuje relację pomiędzy okresem obiegu planety wokół Słońca a promieniem jej orbity, podczas gdy dynamika Newtona tę relację wyjaśnia, odwołując się do ogólnych zasad, takich jak prawo powszechnego ciążenia, zasady dynamiki oraz matematyczne prawidła ruchu po krzywych. Rozróżnienie tego typu wprowadza i dokładnie analizuje, zwłaszcza w aspekcie sporu realizm – antyrealizm, N. Cartwright (1983). Oprócz faktu, iż systemy odkryć grupy Simona nie są samodzielnie w stanie tworzyć (poszukiwać) reprezentacji problemów, jeszcze jedna istotna okoliczność (prawdopodobnie będąca jego konsekwencją) przemawia za tym, że jak dotąd nie udało się przy pomocy systemów odkryć replikować procesów odkrywania teorii wyjaśniających. Otóż nawet systemy posiadające zaawansowane heurystyki i sposoby reprezentowania danych, nastawione na odkrywanie ukrytej, mikroskopowej struktury materii, takie jak GELL-MANN (Fischer i Żytkow, 1990), także nie stanowią przykładu generowania wyjaśnień teoretycznych. Systemy tego typu funkcjonują, używając terminologii Cartwright na poziomie praw fenomenologicznych o wąskim zakresie zastosowań, a nie ogólnych, abstrakcyjnych teorii wyjaśniających. Kolejną formą działalności naukowej, o której Simon (1992a, s. 11; Langley et al., ss. 313–314) wspomina raczej marginalnie i która nie była dotąd tematem szczegółowych badań jego grupy, jest wynajdowanie nowych instrumentów. Wyraża on jednak przekonanie, że tak jak w innych przypadkach wyżej dyskutowanych, tak i tu można wyjaśnić procesy odkryć przy pomocy przeszukiwania heurystycznego. Podaje nawet dwie dyrektywy heurystyczne: jedna zaleca poszukiwanie instrumentów, które wykorzystywałyby nowe zjawiska, druga – poszukiwanie nowych zjawisk przy pomocy coraz doskonalszych instrumentów pomiarowych. Częściowe przynajmniej wykorzystanie tej drugiej heurystyki znaleźć można w systemie FAHRENHEIT, stworzonym przez Jana Żytkowa (Żytkow, 1987). 6 Argumenty krytyczne Program badawczy grupy skupionej wokół Herberta Simona jest, jeśli można użyć tego słowa, bardzo ambitny. Grupa może się poszczycić podbudową ideologiczną w postaci koncepcji rozwiązywania problemów przez umysł ludzki oraz wieloma wdrożonymi programami dokonującymi odkryć w różnych dziedzinach nauki. Nic więc dziwnego, że oprócz głosów pełnych entuzjazmu, a nawet podziwu program spotkał się z ostrą krytyką zarówno w kwestii jego założeń metodologicznych, jak i osiągnięć.3 Wielu krytyków zarzuca Simonowi, że jego ujęcie nie oddaje istoty, esencji czy prawdziwej natury odkrycia naukowego. Owa esencja odkrycia naukowego bywa jednak różnie rozumiana przez różnych autorów. Dla jednych jest ona związana ze znalezieniem czy sformułowaniem problemu, dla innych – z przedstawieniem odpowiedniej reprezentacji dla problemu.4 I tak D. Gillies (1992), jeden z najbardziej zaciętych krytyków Simona i zdecydowany rzecznik systemów stworzonych w ramach tradycji A. Turinga, uważa znalezienie, postawienie i właściwe sformułowanie problemu za, być może, najważniejszy, najbardziej twórczy element odkrycia naukowego. Wedle Gilliesa programy Simona nie dokonują (nawet ponownie) tych samych odkryć w tych samych warunkach początkowych, jak czynią to oryginalni odkrywcy. Przykładowo, w przypadku prawa Keplera istotny, twórczy, najtrudniejszy krok polegał na ustaleniu, które zmienne są ze sobą powiązane, oraz znalezieniu ogólnej formy poszukiwanego prawa. A to wszystko było z góry przez Simona dane zarówno systemom z serii BACON, jak i badanym przez niego w laboratorium psychologicznym ochotnikom. Inni krytycy twierdzą, że to właśnie definiowanie problemów czy stawianie pytań ma kluczowe znaczenie w odkryciach naukowych. Odkrycie naukowe jest trudne, ponieważ stawianie interesujących pytań czy definiowanie problemów, a nie ich rozwiązywanie stanowi główną trudność. Problemy, przed którymi stają naukowcy, są trudne, ponieważ nie są w pełni zdefiniowane (ill-defined). Zawierają w sobie wiele pytań, na które badacz nie zna z góry odpowiedzi. Tymczasem problemy, które daje do rozwiązania grupa Simon swoim systemom są już z góry „opra_____________ 3 Krytycznej dyskusji dotyczącej programu Simona został nawet poświęcony specjalny numer International Studies in the Philosophy of Science (1992, vol. 6, nr 1). 4 Obszernie analizuję te argumenty w pracy Giza, 2006. 7 cowane” i przygotowane, tak że przypominają raczej ćwiczenia książkowe, które zadaje się studentom do rozwiązania. Nic więc dziwnego, że grupa Simona nie może, choć powinna, poszczycić się mnóstwem całkowicie nowych odkryć naukowych: ich programy nie chwytają istoty odkrycia naukowego – powiadają krytycy. Kolejna grupa zarzutów krytycznych wobec stanowiska Simona opiera się na twierdzeniu, że „prawdziwa istota” odkrycia naukowego polega na znalezieniu właściwej reprezentacji problemu, a tego aspektu odkrycia naukowego systemu Simona nie oddają. Uniemożliwia im to między innymi dokonywanie odkryć o charakterze teoretycznym, a więc tych najbardziej wartościowych, fundamentalnych, wykraczających poza „normalną naukę”. W jaki sposób Simon odpowiada na takie zarzuty? Otóż, jak już wspomniałem, argumentuje, że nie istnieje nic takiego, jak prawdziwa „esencja” odkrycia naukowego ani „twórczy krok” w dokonaniu jakiegoś odkrycia. Swoim krytykom zarzuca on błąd, który określa jako the Fallacy of the Definite Article, co można przetłumaczyć: błąd polegający na użyciu przedimka określonego the. Krytycy mianowicie uważają, że określony aspekt działalności badawczej stanowi tę jedyną, twórczą esencję odkrycia naukowego, dowodząc zarazem, że rekonstrukcje komputerowe dokonane przez Simona i jego grupę tego aspektu nie oddają. Simon przytacza więc wiele przykładów najdonioślejszych odkryć z historii nauki, gdzie właśnie rozwiązanie problemu, a nie jego znalezienie czy sformułowanie, ani też znalezienie dla niego nowej reprezentacji stanowiło „twórczy krok” i przyniosło sławę i uznanie odkrywcy. Rzecz jasna, kwestia jest dyskusyjna, można bowiem replikować, że owe nieujęte (lub ujęte w niewystarczającym stopniu) prze symulacje grupy Simona aspekty odkrycia, na które zwracają uwagę krytycy nie muszą stanowić jego „esencji” – wystarczy, że są niezbędnym składnikiem wielu istotnych odkryć, szczególnie tych o charakterze teoretycznym i dopóki projektowane systemy nie uporają się z tym problemem, o pełnym sukcesie nie ma mowy. Podsumowując rozważania tej sekcji, należy stwierdzić, że rekonstrukcja odkryć naukowych dokonana przez grupę Simona jest niepełna: brak w niej istotnych elementów, takich jak poszukiwanie i formułowanie problemów oraz reprezentacji (szczególnie o charakterze modeli teoretycznych) czy analiza odkryć teoretycznych. Wydaje się, że stanowi to przyczynę, dla której grupa nie może się poszczycić całkowicie nowymi odkryciami dokonanymi przez systemy. Niemniej należy oddać spra- 8 wiedliwość ambitnym zamierzeniom i niewątpliwym osiągnięciom grupy Simona: jak stwierdził jeden z komentatorów (Alai, 2004), niepowodzenia programu Simona wynikają w dużej mierze ze skali trudności podjętych po raz pierwszy problemów. Metoda dekompozycji skomplikowanych problemów na prostsze podproblemy oraz „redukcja kognitywistyczna”, sprowadzająca tajemnicze, niemal mistyczne „przebłyski geniuszu” towarzyszące, w powszechnej opinii, odkryciom naukowym do następujących po sobie kroków polegających na procesach stopniowego rozwiązywania problemów, jest nie tylko interesująca poznawczo, ale także okazała się płodna i skuteczna w formułowaniu praw empirycznych – tak ilościowych, jak i jakościowych – na podstawie danych. 3. Tradycja Alana Turinga Drugim nurtem badań nad odkryciem naukowym jest tzw. tradycja Turinga. W odróżnieniu jednak od grupy H. Simona badacze wywodzący się z tej tradycji nie tylko nie wypracowali spójnego programu teorii odkryć naukowych, ale, co należy mocno podkreślić, nie było to nigdy ich celem. Autorzy systemów powstałych w tej tradycji nie stawiali sobie za cel jakichkolwiek głębszych dociekań natury filozoficznej czy metodologicznej. Interesowało ich jedynie zastosowanie aparatu programowania logicznego do bardzo konkretnych, praktycznych problemów związanych z zastosowaniem systemów eksperckich. Dopiero wspomniany w poprzedniej sekcji jako krytyk programu Simona, filozof Donald Gillies dostrzega pewne implikacje natury ogólniejszej w systemach tej grupy, co więcej, twierdzi, że jej osiągnięcia w dziedzinie machine learning5 znacznie przewyższają osiągnięcia grupy Simona w dziedzinie odkryć naukowych. Tradycja Turinga bierze swój historyczny początek od jego rozważań nad słynną maszyną, nazwaną później od jego nazwiska, oraz nad algorytmami szyfrującymi, które w czasie II wojny światowej zaowocowały złamaniem kodu niemieckiej maszyny Enigma. Wtedy to do Alana Turinga dołączył Donald Michie, który najpierw, wraz z nim, zajmował się _____________ 5 Termin ten, nieco wieloznaczny, można w rozmaitych kontekstach tłumaczyć jako „uczenie maszynowe”, „uczenie się maszyn” czy nawet „uczenie przy pomocy maszyn”. W systemach eksperckich, o których mowa, chodzi o sformułowanie drogą indukcji praw produkcji dla systemu eksperckiego na podstawie jednostkowych przypadków, w związku z czym dwa pierwsze przekłady wydają się najwłaściwsze. Niemniej, w dalszej części pracy, pozostanę przy terminie oryginalnym. 9 kryptoanalizą w ośrodku badawczym w Bletchley, a później założył departament sztucznej inteligencji na uniwersytecie w Edynburgu oraz Instytut Turinga w Glasgow. To właśnie Michie w decydujący sposób przyczynił się, zdaniem Gilliesa, do rozprzestrzeniania idei Turinga zarówno w Europie, jak i poza nią. Wśród badaczy, na których wywarł on znaczący wpływ, znaleźli się między innymi późniejsi twórcy ważnych systemów w dziedzinie machine learning, tacy jak S. Muggleton, J. R. Quinlan, E. Shapiro czy I. Bratko. Grupa ta jest rozrzucona przestrzennie, jej członkowie pracują w Anglii, Słowenii, Stanach Zjednoczonych, a nawet Japonii, niemniej dzięki nowoczesnym technologiom wymiany informacji była w stanie stworzyć, jak to określa Gillies, swą własną tradycję intelektualną.6 Systemy machine learning w tradycji Turinga wyrosły w kontekście badań jakie już w latach 1960. prowadzono nad zastosowaniem systemów eksperckich do rozwiązywania praktycznych problemów w dziedzinach takich jak medycyna, technika czy przemysł. Do końca lat 1970. stało się jasne, że systemy eksperckie są bardzo użyteczne z praktycznego punktu widzenia, w ich tworzeniu i zastosowaniach pojawił się jednak pewien istotny problem. Polegał on na uzyskaniu wiedzy potrzebnej do stworzenia bazy praw systemu od ekspertów w danej dziedzinie. Początkowo dokonywano tego poprzez żmudne i długie „wywiady” przeprowadzane przez twórców systemów z ekspertami. Wkrótce się jednak okazało, że eksperci posiadają wprawdzie praktyczną wiedzę w danej dziedzinie, lecz jej zwerbalizowanie, a tym bardziej sformułowanie w sposób na tyle ścisły i logiczny, aby mogła być zakodowana w postaci praw produkcji przydatnych dla systemu eksperckiego, jest bardzo trudne, czasochłonne, a czasem wręcz niemożliwe. Tę istotną przeszkodę dla szybko rozwijającej się dziedziny badań i zastosowań praktycznych nazwano „wąskim gardłem Feigenbauma”. Powstanie i rozwój systemów machine learning w tradycji Turinga było, zdaniem Gilliesa, odpowiedzią na tego typu trudności. Zamiast bowiem przeprowadzać żmudne wywiady z ekspertami można skonstruować system, który będzie w stanie drogą indukcji, na podstawie jednostkowych przykładów jednoznacznie ocenionych przez eksperta, sformułować prawa produkcji. Celem tego typu systemów nie jest jednak całkowite wyeliminowanie wywiadów z ekspertami – przeciwnie, eksperci z jednej strony dostarczają wiedzy pomocnej przy wywnioskowaniu _____________ 6 Patrz Gillies, 1996, s. 25 n. 10 praw produkcji oraz właściwie dobranych przykładów ułatwiających ich wywnioskowanie, a z drugiej są w stanie ocenić i ewentualnie ulepszyć ustalone przez system prawa. Pierwszymi systemami tego typu był Meta-DENDRAL (Buchanan i Feigenbaum, 1978), którego zadaniem było utworzenie praw produkcji dla sytemu DENDRAL7 oraz INDUCE (Michalski i Chilautsky, 1980). Te istotne z historycznego punktu widzenia systemy odniosły znaczące sukcesy i zapoczątkowały nową dziedzinę badań. Gillies w swoich analizach filozoficznych koncentruje się jednak na następnych systemach powstałych w nurcie tradycji Turinga, które, jak argumentuje, mają istotne znaczenie dla kontrowersji pomiędzy indukcjonizmem a falsyfikacjonizmem. Osiągnięcia tych systemów dowodzą jego zdaniem, że metoda indukcji w duchu Bacona i Milla po raz pierwszy znajduje zastosowanie i odnosi znaczące sukcesy w odkrywaniu nowych prawidłowości tak w nauce, jak i w różnych praktycznych zastosowaniach technicznych. Systemy te to ID3 (Quinlan, 1979; 1986) oraz GOLEM (Muggleton i Feng, 1992), z których ten drugi, o wiele bardziej zaawansowany, zasługuje na szczególną uwagę, ze względu na fakt, że spośród systemów powstałych w tradycji Turinga to właśnie systemowi GOLEM, w przeciwieństwie do systemów stworzonych przez badaczy z grupy Simona, udało się, w przekonaniu Gilliesa odkryć całkowicie nowe prawo naukowe, co więcej, odkrycie to związane jest z istotną i wciąż rozwijającą się dziedziną – badaniem struktury białek. Jeśliby tak istotnie było, to stanowiłoby to konstruktywny dowód, a w każdym razie silny argument na rzecz wspomnianej już głównej tezy Gilliesa, że dzięki systemom komputerowym metoda indukcji znalazła zastosowanie w nauce i obecnie stanowi pewną formę logiki odkrycia naukowego. Otóż system GOLEM zastosowany został do pewnej uproszczonej (lecz nadal bardzo trudnej dla naukowców) wersji problemu polegającego na przewidzeniu drugorzędowej (a więc decydującej o własnościach biologicznych) struktury białek na podstawie znajomości ich struktury pierwszorzędowej. Dotychczas można ją było jedynie ustalić na drodze żmudnych, długich i kosztownych badań przy użyciu bardzo zaawansowanej, specjalistycznej aparatury. System otrzymał najpierw na wej_____________ DENDRAL, stworzony i rozwijany na uniwersytecie Stanford od 1965 roku głównie przez E. Feigenbauma i B. Buchanana w ramach Projektu Programowania Heurystycznego, przy współpracy z zespołem spektrometrii masowej, został z powodzeniem zastosowany do analizy spektrogramów skomplikowanych związków organicznych, wspomagając tym samym ekspertów w dziedzinie chemii organicznej. 7 11 ściu zbiór treningowy składający się z dwunastu cząsteczek białka o znanej homologicznej strukturze tak zwanego typu α, zawierających ponad 1500 rodników aminokwasowych. Na podstawie tego zbioru oraz wiedzy tła GOLEM sformułował pewną niewielką liczbę praw pozwalających przewidzieć, które rodniki są częściami helis α. Dane na temat przypadków pozytywnych i negatywnych zakodowane były w postaci predykatów dwuargumentowych o ogólnej postaci: alfa(nazwa_białka, pozycja), orzekających, że rodnik na określonej pozycji w łańcuchu danej cząsteczki białka tworzy helisę α. Otrzymane przez system prawa były następnie testowane na czterech różnych białkach o znanej, niehomologicznej strukturze, należących do typu α. Testy wykazały zgodność tych praw z danymi na poziomie 81% (Gillies, 1996, s. 51). Dla lepszej ilustracji, pozwolę sobie przytoczyć, za Gilliesem jedno z takich praw: W cząsteczce białka A na pozycji B występuje rodnik tworzący helisę α, jeżeli spełnione są następujące warunki: – rodnik na pozycji B-2 nie jest proliną – rodnik na pozycji B-1 nie jest aromatyczny ani nie jest proliną – rodnik na pozycji B jest duży, niearomatyczny i nie jest lizyną – rodnik na pozycji B+1 ma własności hydrofobowe i nie jest lizyną – rodnik na pozycji B+2 nie jest aromatyczny ani nie jest proliną – rodnik na pozycji B+3 nie jest aromatyczny ani nie jest proliną ani nie jest mały ani nie ma budowy biegunowej – rodnik na pozycji B+4 ma własności hydrofobowe i nie jest lizyną. Z przedstawionego powyżej przykładu Gillies wyciąga bardzo mocne wnioski: stwierdza, że przytoczone prawo (i inne jemu podobne) jest całkowicie nowym prawem, które nie było znane aż do czasu sformułowania go przez system GOLEM. Co więcej, prawo to stanowi przyczynek do ważkich współczesnych badań nad przyrodą. Stąd też, jak utrzymuje (1996, s. 53), mamy prawo twierdzić, że system GOLEM odkrył nowe prawo przyrody. Z przytoczonej analizy dokonanej przez autorów systemu wyciąga wniosek, że odkryte przez system prawa mają charakter przyczynowy: występowanie konkretnych sekwencji rodników o określonych własnościach powoduje taką, a nie inną strukturę przestrzenną. 12 Argumenty krytyczne Należy przyznać, że Gillies dokonuje wielu cennych i trafnych analiz zdających się wskazywać, że metoda naukowa, dzięki rozwojowi systemów machine learning ewoluuje, podobnie jak sama nauka, Indukcja w duchu Bacona staje się równoprawną metodą zdobywania nowej wiedzy.8 Obawiam się jednak, że entuzjazm Gilliesa dla osiągnięć i, przynajmniej dotychczasowych możliwości, systemów machine learning jest zbyt daleko idący i nieuzasadniony. Powstaje bowiem zasadnicza wątpliwość: czy opisane systemy rzeczywiście dokonują odkryć nowych praw naukowych? Sądzę, że nie, a to z trzech powodów: Przede wszystkim, odkryte przez system GOLEM, na drodze mechanicznej indukcji, uogólnienia nie mogą pretendować do statusu praw nauki – są jedynie uogólnieniami empirycznymi o bardzo niskim poziomie ogólności. Po drugie, jak przyznają autorzy systemu i sam Gillies, uogólnienia sformułowane przez system GOLEM okazały się w testach trafne jedynie w około 80%. Po trzecie wreszcie, prawa te zdecydowanie nie mogą pretendować, wbrew twierdzeniom samego Gilliesa, do miana praw przyczynowych – nie wyjaśniają bowiem regularności empirycznych poprzez odwołanie się do ogólniejszych formuł czy mechanizmów przyczynowych, a jedynie stanowią skrótowy opis pewnych korelacji statystycznych. Wypada więc stwierdzić, że zarzut, jaki podnosił Gillies wobec systemów stworzonych przez grupę Simona, głoszący, że nie dokonują one żadnych nowych odkryć praw naukowych, ma zastosowanie wobec systemów, których on sam jest rzecznikiem, a więc systemów grupy Turinga. Systemy te wprawdzie dokonują nowych odkryć, ale formułują raczej uogólnienia empiryczne czy korelacje statystyczne niż prawa nauki w pełnym tego słowa znaczeniu. 4. Grupa HHNT Ostatnim, zapewne najbardziej obiecującym nurtem badań w dziedzinie odkryć naukowych jest podejście określane jako program badawczy HHNT. Jest ono w swych założeniach niejako odpowiedzią na pod_____________ 8 Szerzej poruszam te kwestie w pracy Giza, 2006, rozdz. 2. 13 stawowe trudności i zarzuty, z jakimi borykają się dwa pozostałe opisane wyżej podejścia do odkrycia. Nie może się on poszczycić podbudową ideologiczną oraz wieloma działającymi systemami odkryć, jak grupa Simona, ani też nowymi prawami empirycznymi, jak tradycja Turinga. Niemniej jednak sądzę, że wydaje się najbardziej obiecujący na przyszłość, a brak spektakularnych, praktycznych osiągnięć wynika ze skali trudności i bogactwa podjętych problemów, nie zaś z błędnych założeń metodologicznych. Program ten bowiem, przynajmniej jeśli chodzi o odkrycie naukowe, stawia sobie ambitny cel eksploracji mechanizmów odkryć teoretycznych poprzez odwołanie się do skomplikowanego modelu systemu zdolnego do autonomicznego poszukiwania teorii wyjaśniających. Program badawczy zwany HHNT jest efektem wspólnej pracy czterech autorów: J. Hollanda, K. Holyoaka, R. Nisbetta i P. Thagarda, pracujących w różnych dziedzinach badań, od psychologii aż po computer science. Ich pionierską pracą jest Induction: Processes of Inference, Learning, and Discovery (1986). Od tamtego czasu autorzy nie opublikowali żadnej wspólnej pracy, chociaż wspólnie osiągnięte i opublikowane wyniki wywarły znaczący wpływ na dalsze prace badawcze każdego z nich. Praca ta proponuje pewnie skomplikowany, pojęciowy model funkcjonowania samouczącego się i zdolnego do adaptacji do zmian w środowisku systemu kognitywnego. Jak sugeruje tytuł książki, autorzy stawiają sobie znacznie szerszy i bardziej ambitny cel niż komputerowa rekonstrukcja czy symulacja procesu odkrycia naukowego. Uważając indukcję za „ucieleśnienie wszelkich procesów wnioskowania poszerzających wiedzę w obliczu niepewności” (s. 1), autorzy proponują pewne kompleksowe, pragmatyczne ujęcie indukcji, którego zadaniem ma być „przezwyciężenie trudności, z jakimi borykały się dotychczasowe ujęcia tego zagadnienia, zarówno filozoficzne, psychologiczne, jak i komputerowe” (s. 2). Ujęcie to ma udzielić odpowiedzi na kilka podstawowych pytań: w jaki sposób system kognitywny przetwarza dane wejściowe pochodzące z zewnętrznego środowiska oraz posiadaną wiedzę tak, aby korzystać z własnych doświadczeń? W jaki sposób system jest w stanie oprzeć swe działanie na zgromadzonym doświadczeniu w obliczu nowych sytuacji? W jaki sposób jest on w stanie modyfikować, usuwać i wprowadzać nowe reguły do swej bazy praw (rule base) tak, aby adekwatnie reagować na nowe sytuacje? Wreszcie: w jaki sposób posługuje się on metaforą i analogią w celu przeniesienia informacji i procedur postępowania z jednej dziedziny zastosowań do innej? 14 Co więcej, intencją autorów jest stworzenie takiego modelu zachowania się „systemu kognitywnego”, który dałby się ostatecznie przetłumaczyć na procedury możliwe do zrealizowania na komputerze. W niektórych przypadkach zamierzenie to zaowocowało w postaci funkcjonujących programów komputerowych, w innych udało się stworzyć jakościowy model zachowania systemu, który służyć może niejako za zalążek przyszłych symulacji. Centralnym pojęciem koncepcji HHNT jest model mentalny, tworzony przez system kognitywny w celu reprezentowania środowiska, w którym się znajduje. Środowisko czy jego wybrany fragment opisywany jest poprzez zbiór stanów S i funkcję przejścia T, opisującą zmiany stanów w czasie. Powstaje pytanie: w jaki sposób koncepcja ta jest realizowana w systemach przetwarzania informacji i jakiego rodzaju są to systemy? Otóż autorzy przyznają się do związków zarówno z klasycznymi systemami produkcji (production systems),9 jak i modelami koneksjonistycznymi. W pierwszym, wstępnym rozdziale omawianej pracy znajdujemy pewne podstawowe zasady, leżące u podstaw zarówno implementacji komputerowych, jak i analiz jakościowych badanych przez nich zjawisk. Wiedza reprezentowana jest przez prawa warunkowe o postaci warunek–akcja (condition–action rules). Działanie tych praw polega na generowaniu tzw. wiadomości dla całego systemu. Prawa mogą reprezentować zarówno zależności synchroniczne, związane z kategoriami obiektów, jak i diachroniczne, wyrażające przewidywania na temat zachowania się obiektów. Oba typy praw współdziałają przy rozwiązywaniu problemów. System posiada mechanizmy indukcyjne, dzięki którym prawa mogą się łączyć w większe struktury, tzw. klastry. Tworzą one domyślne hierarchie oraz wyposażone są w prawa mające za zadanie „radzić” sobie z wyjątkowymi sytuacjami bez modyfikowania całej reszty domyślnej struktury. Prawa, których poprzedniki są spełnione przez aktywne w danej chwili wiadomości, konkurują ze sobą o reprezentowanie bieżącej sytuacji oraz wpływ na działanie systemu. Mogą one być uruchamiane rów_____________ 9 Jest to ogólny schemat, zaproponowany przez Newella i Simona (1972), szczególnie przydatny przy konstrukcji systemów modelujących ludzkie procesy poznawcze, tak eksperckich, jak i dokonujących odkryć naukowych. 15 nolegle do siebie i udzielać sobie nawzajem wsparcia, determinując w ten sposób zachowanie się systemu. Rozumowanie indukcyjne znajduje w systemie zastosowanie przy modyfikacji istniejących praw oraz generowaniu nowych. Mechanizmy generujące nowe prawa podlegają ścisłym ograniczeniom tak, aby prawa te okazały się przydatne dla systemu. Procedury indukcyjne posługują się wiedzą na temat obiektów i zdarzeń oraz sposobu, w jaki się one zmieniają. Tak więc ogólna zasada działania systemu bliska jest standardowym systemom produkcji, a więc zasadza się na cyklicznym dopasowywaniu do wzorca oraz uruchamianiu praw o postaci warunek–akcja. Zasadnicza różnica polega jednak na tym, że w standardowych systemach produkcji w danym cyklu uruchamiane jest tylko jedno prawo, a w modelu HHNT równolegle może być uruchomionych wiele praw, których warunki spełnione są przez wiadomości aktywne w systemie. Prawa te mają różny stopień „wsparcia” ze strony środowiska bądź innych aktywnych w danym cyklu praw, a ogłaszane przez nie wiadomości mają wpływ na szanse uruchomienia innych praw w kolejnym cyklu. Taki sposób działania systemu daje mu znacznie większe szanse efektywnego działania w realnych sytuacjach, gdy wiedza o środowisku jest z reguły niekompletna lub nie do końca uświadomiona. Większość opisanych mechanizmów znajduje zastosowanie w działaniu stworzonego przez autorów systemu komputerowego PI (Processes of Inference), implementowanego w języku LISP. Autorzy nie ograniczają się jednak w swych symulacjach komputerowych opisanego modelu mentalnego do prostych problemów z życia codziennego człowieka czy innych organizmów. W rozdziale poświęconym odkryciu naukowemu stosują oni swój model do tego, jak piszą, „największego indukcyjnego osiągnięcia człowieka” (s. 320). Otóż HHNT rekonstruują strukturę wiedzy naukowej w następujący sposób: prawa nauki (scientific laws) są formułami (rules) o charakterze ogólnym, idee w nauce są pojęciami pozwalającymi łączyć prawa w użyteczne większe całości, teorie natomiast stanowią kompleksy praw funkcjonujących razem dzięki łączącym je pojęciom. Struktura ta znajduje odzwierciedlenie w proponowanym przez nich modelu mentalnym. Przede wszystkim interpretują prawa nauki jako reguły czy prawa, na których opiera się działanie systemu kognitywnego, teorie natomiast są w ich ujęciu modelami mentalnymi, wyjaśnianie za ich pomocą jest po prostu rozwiązywaniem problemów przez system. 16 Autorzy przyznają, że obecność w nauce terminów denotujących obiekty nieobserwowalne stanowi problem dla badań nad odkryciem naukowym, także tych posługujących się rekonstrukcją komputerową. Powstaje bowiem pytanie: w jaki sposób naukowcy mogą sformułować nową teorię i nowe pojęcia, skoro odwołują się one do obiektów, które, przynajmniej na danym etapie rozwoju nauki, są niedostępne obserwacji, i jak tę drogę zrekonstruować? Odpowiedź, jakiej udzielają z perspektywy swego stanowiska, jest następująca: „[…] analogia jest głównym środkiem służącym konstrukcji teorii, a mechanizm kombinacji pojęciowej, podstawową metodą generowania pojęć teoretycznych” (s. 326). Jest ona poparta jakościową analizą struktury, rozwoju i oceny teorii naukowych w ramach koncepcji modelu mentalnego10 oraz symulacją odkrycia prostej teorii naukowej przy pomocy programu PI. Autorzy opisują działanie systemu PI w zastosowaniu do odkrycia falowej teorii dźwięku, które przypisują rzymskiemu architektowi Vitruviusovi. Badając i opisując zasady rozchodzenia się dźwięku w amfiteatrach, odwoływał się on do analogii z falami na wodzie, choć zdawał sobie sprawę z istotnych różnic pomiędzy tymi dwoma rodzajami fal, na przykład dźwięk rozchodził się w trzech kierunkach, a fale na wodzie w dwóch. Autorzy twierdzą, że teoria falowa dźwięku posiadała istotne, opisywane przez nich cechy teorii naukowych: unifikowała różne zaobserwowane zjawiska, takie jak rozchodzenie się i odbicie dźwięku, oraz postulowała przedmioty nieobserwowalne – fale dźwiękowe. Oczywiście teoria miała początkowo charakter jakościowy i do odkrycia takiej teorii ogranicza się opisana symulacja komputerowa. Co więcej, w opisanym przypadku system PI wykorzystuje jedynie rozumowanie abdukcyjne oraz kombinację pojęciową, nie posługuje się natomiast rozumowaniem przez analogię, tak mocno eksponowanym przez autorów jako główna metoda konstrukcji nowych modeli teoretycznych w nauce. Dalsze symulacje dokonane przy pomocy systemu PI opisuje Thagard w znanej książce poświęconej komputerowej analizie rewolucji naukowych, Conceptual Revolutions (1992), w której opisuje też kolejny system, ECHO (Explanatory Coherence by Harmony Organization). Zasadniczym celem pracy jest pokazanie, że sformułowana przez autora teoria koherencji eksplanacyjnej, w skrócie TOC (Theory of Explanatory Coherence), jest w stanie opisać zmiany w schemacie pojęciowym towarzyszące rewolucjom naukowym lepiej, niż czynią to podejścia tradycyjne. Konek_____________ 10 Patrz ss. 326–339. 17 sjonistyczny program ECHO został zastosowany do wybranych przypadków rewolucji naukowych: rewolucji Lavoisiera w chemii, rewolucji Darwina, teorii Wegenera na temat ruchu kontynentów w geologii oraz rozstrzygnięcia sporu pomiędzy teoriami Kopernika i Ptolemeusza, a także Newtona i Kartezjusza w fizyce. Te wartościowe, rzec można pionierskie, dokonania nie dotyczą jednak komputerowego modelowania odkryć naukowych. Wydaje się, że Thagard słusznie uznał na tym etapie badań, że łatwiej jest eksplorować nowe, otwarte dziedziny, takie jak ocena teorii i schematów pojęciowych, niż zmagać się z trudnymi problemami w zastosowaniu systemu PI do odkryć naukowych. Jednocześnie Thagard wraz z innymi naukowcami, głównie współautorem pracy zbiorowej, Holland et al., psychologiem kognitywnym K. Holyoakiem, podejmują badania nad komputerową symulacją rozumowania przez analogię, w więc dziedziną, której wagę dla odkryć teoretycznych w nauce mocno podkreślali autorzy tej pionierskiej pracy i która nie została ujęta w symulacjach komputerowych przy pomocy programu PI. Pierwsze publikacje na ten temat to Holyoak i Thagard (1989) oraz Thagard, Holyoak, Nelson i Gochfeld (1990). W pracy z 1989 roku autorzy postawili sobie za cel dokonanie ściślejszej niż dotychczas, formalnej analizy rozumowania przez analogię oraz zbudowanie systemu, który nazwali ACME (Analogical Constraint Mapping Engine), generującego transfery analogiczne w oparciu o kryteria syntaktyczne, semantyczne i pragmatyczne. Autorzy stosują system do kilkunastu przypadków analogii, w tym dwu z dziedziny nauk przyrodniczych, a dokładnie fizyki: analogii pomiędzy przepływem cieczy w naczyniach połączonych, wywołanym różnicą ciśnień, a przepływem ciepła wywołanym różnicą temperatur oraz pomiędzy ruchem planet wokół Słońca i ruchem elektronów wokół jądra atomowego (1989, s. 333 n.). Jednocześnie wraz z innymi badaczami (Thagard, Holyoak, Nelson i Gochfeld, 1990) opracowują oni system zwany ARCS (Analog Retreival by Constraint Satisfaction), którego zadanie było w pewnym sensie komplementarne w stosunku do systemu ACME, polegało bowiem na znajdowaniu (według trzech wspomnianych kryteriów) najbardziej odpowiednich źródeł analogii dla badanej sytuacji docelowej. Co więcej, w konkluzji do pracy Thagard et al. (1990) autorzy na podstawie wstępnych testów stwierdzają, że analogie znalezione i częściowo opracowane przez system ARCS można wprowadzić na wejście 18 systemu ACME, co znacznie przyspiesza proces poszukiwania optymalnego odwzorowania. Należy podkreślić, że pomimo wielu istotnych osiągnięć na polu badań nad funkcjonowaniem analogii tak w laboratorium psychologicznym, jak i w symulacjach komputerowych dokonanych przy pomocy zaawansowanych systemów koneksjonistycznych, osiągnięcia w dziedzinie automatyzacji odkryć naukowych są raczej skromne. Sami autorzy otwarcie przyznają w podsumowaniach do przytoczonych artykułów, że opisane symulacje dwu analogii z dziedziny fizyki dotyczą tzw. fizyki jakościowej11 i testowane systemy nie pozwalają na sformułowanie nawet praw empirycznych o charakterze ilościowym, a cóż dopiero całych teorii naukowych. Ponadto badane przez autorów problemy analogii pomiędzy przepływem cieczy a przepływem ciepła oraz ruchem planet i ruchem elektronów w atomie trudno zakwalifikować jako odkrycia naukowe. Niemniej jednak trzeba podkreślić, że ze względu na stopień ważności i trudności problemu „pierwsze kroki” w dziedzinie symulacji komputerowej rozumowań przez analogię w nauce zostały zdecydowanie poczynione. Paul Thagard w artykule przeglądowym Computation and the Philosophy of Science (1998) podsumowuje osiągnięcia w dziedzinie komputerowej filozofii nauki, włączając w to rezultaty badań nad odkryciami naukowymi od czasów publikacji jego książki pod tym właśnie tytułem (Thagard, 1988), oraz wskazuje niedostatki i pewne otwarte problemy, które mogą i powinny stać się przedmiotem dalszych badań i symulacji komputerowych. Wśród tych ostatnich wymienia rolę wyobraźni wizualnej w rozwoju wiedzy naukowej, a w szczególności wielokrotnie opisywaną przez historyków nauki i psychologów rolę analogii o charakterze raczej obrazowym niż werbalnym, w dokonywaniu odkryć i formułowaniu teorii naukowych. Wydaje się, że ta ostatnia grupa zagadnień stała się od pewnego czasu przedmiotem zainteresowań samego Thagarda. Krok w tym kierunku stanowi system DIVA (Dynamic Imagery for Visual Analogy), opracowany przy współpracy specjalistów w dziedzinie animowanej, trójwymiarowej grafiki komputerowej (Croft i Thagard, 2002). Jest on swoistym połączeniem modelu systemu kognitywnego w duchu tradycji HHNT, opartego na koneksjonistycznym algorytmie sieci semantycznej, i algorytmu ana_____________ 11 Więcej o reprezentacji procesów, stanów i obiektów w ramach koncepcji fizyki jakościowej piszę w pracy Giza, 2006, rozdz. 1. 19 lizy sceny czy świata graficznego, posługującego się tzw. techniką grafów scenicznych. System jest w stanie analizować cechy i wzajemne relacje „obiektów” w spoczynku i w ruchu, a także, podobnie jak wcześniejsze systemy SME i ACME, konstruować analogie pomiędzy nimi. Rzecz jasna, w obecnej formie system posiada wiele ograniczeń, które sprawiają, że nie można go zastosować do badań nad „eksperymentami myślowymi” czy analogiami obrazowymi, którymi posługują się naukowcy. Nie ma on kontaktu z realnym światem, lecz otrzymuje na wejściu specjalnie spreparowane dane w przyjętym w sieci Internet formacie reprezentacji modeli trójwymiarowych VRML. Co więcej, nie dysponuje wiedzą o tym, w jaki sposób obiekty na scenie graficznej oddziałują na siebie fizycznie, nie ma też wbudowanych mechanizmów wnioskowania pozwalających mu rozwiązywać tego typu problemy (Croft i Thagard, 2002, ss. 39–40). Niemniej jednak podobnie jak w przypadku modelowania analogii, tak i w trudnej dziedzinie analizy roli wyobraźni wizualnej w odkryciu naukowym wydaje mi się, że „pierwsze kroki” zostały już poczynione, choć jest to dopiero początek długiej drogi. Argumenty krytyczne Dokonania programu HHNT na polu odkrycia naukowego spotkały się z entuzjastyczną oceną ze strony wspomnianego już M. Alai (2004), który dostrzega w założeniach oraz potencjale intelektualnym tego programu istotną wyższość w porównaniu z grupą Simona i tradycją Turinga. Tymczasem pomiędzy teoretycznym modelem HHNT sformułowanym w 1986 roku a jego praktycznymi realizacjami przy pomocy systemu PI, szczególnie w dziedzinie odkryć naukowych, istnieje tak ogromna przepaść, iż trudno oprzeć się wrażeniu, że tego rodzaju entuzjastyczne oceny osiągnięć programu HHNT w dziedzinie odkryć naukowych, są chybione. Dokonana przeze mnie próba analizy komputerowych implementacji idei HHNT w dziedzinie odkrycia naukowego (czy, ogólniej, komputerowej filozofii nauki) od czasów publikacji pracy zbiorowej Holland et al., aż do najnowszych osiągnięć badaczy tej grupy miała na celu pokazanie, w jakim stopniu i w jakich dziedzinach badań przepaść ta została wypełniona. Otóż, jak sam Thagard wielokrotnie przyznaje, system, który nie jest wyposażony w reprezentacje danych, mechanizmy wnioskowania i heu- 20 rystyki o charakterze ilościowym oraz nie dysponuje wystarczającym zasobem wiedzy z danej dziedziny, nie jest w stanie odkryć nawet prawa empirycznego, a cóż dopiero teorii naukowej posługującej się skomplikowaną aparaturą matematyczną i abstrakcyjnym modelem teoretycznym. Nic więc dziwnego, że „teorie naukowe” formułowane przez system, w rodzaju falowej „teorii” dźwięku, są z konieczności bardzo proste i mają charakter jakościowy. Późniejsze prace nad ścisłym modelem, a następnie symulacjami komputerowymi poszczególnych etapów rozumowania przez analogię, pomimo budzących respekt wysiłków, doprowadziły wprawdzie do powstania systemów znakomicie radzących sobie z prostymi problemami rodem z laboratorium psychologicznego, lecz niestety ich sukcesy w dziedzinie odkryć naukowych są znikome. Podobnie ma się rzecz z opisanymi przeze mnie badaniami nad myśleniem obrazowym i analogią wizualną. O ile bowiem w pierwszym przypadku symulacje komputerowe ograniczają się do prostych problemów natury jakościowej, o tyle w drugim badany przez systemy „świat” pozbawiony jest na razie oddziaływań fizycznych pomiędzy obiektami. Podsumowując moją ocenę osiągnięć grupy HHNT, chciałbym stwierdzić, że przytoczone krytyczne uwagi nie mają bynajmniej na celu zdyskredytowania tego programu badawczego. Owszem, to prawda, że propozycje grupy HHNT są jak na razie konceptualne, bez spektakularnych praktycznych wyników. Jednak sama analiza procesu tworzenia i modyfikacji wiedzy w oparciu o procedury indukcyjne jest niezwykle interesująca, uwzględnia bowiem jego nieliniowość oraz systemowość wiedzy daleko wykraczającą poza logiczne związki między poszczególnymi twierdzeniami. Autorzy np. eksponują rolę analogii, myślenia obrazowego oraz kombinacji pojęciowej w konstruowaniu teorii oraz generowaniu nowych pojęć teoretycznych. To podejście, w którym teorie traktowane są jako „modele mentalne”, umożliwia podjęcie próby rekonstrukcji odkryć naukowych o charakterze teoretycznym, czego nie były w stanie zrobić systemy tworzone przez wcześniej omawiane grupy badaczy. 5 Konkluzje Jaka więc odpowiedź na postawione w tytule pytanie, czy możliwa jest automatyzacja odkrycia naukowego, wyłania się z krytycznej analizy osiągnięć i niedostatków komputerowych systemów odkryć? Funkcjonujące systemy, zdolne do dokonywania odkryć naukowych, miały sta- 21 nowić konstruktywny dowód twierdzenia głoszącego, że istnieje „logika” odkrycia. Jednakże moc dowodowa tego argumentu zależy w decydujący sposób od tego, co rozumiemy przez dokonywanie odkryć naukowych i w jakim stopniu wdrożone dotychczas systemy odkryć wywiązują się z tego zadania. Tymczasem poprzednie trzy sekcje, traktujące o głównych tradycjach badawczych w tej dziedzinie, zawierają konkluzje zdające się wskazywać, że każdy z tych programów badawczych zakończył się, przynajmniej jak dotąd, fiaskiem, a programu racjonalnej rekonstrukcji odkryć nie udało się dotychczas w całości zrealizować, Pomimo mocnej „podbudowy ideologicznej”, zainwestowania znacznych środków i potężnego potencjału intelektualnego, program racjonalnej rekonstrukcji odkryć naukowych wysunięty przez grupę skupioną wokół H. Simona napotkał poważne trudności i spotkał się z krytyką w związku z niemożnością rekonstrukcji wielu istotnych aspektów odkrycia naukowego i w konsekwencji, brakiem jakichkolwiek nowych odkryć. Badacze z kręgu tradycji Turinga mogą się wprawdzie pochwalić systemami, które na drodze indukcyjnej odkrywają całkowicie nowe prawa, lecz są to raczej regularności empiryczne o bardzo wąskim zakresie zastosowań, niż prawa ogólne o charakterze przyczynowym, opisujące określone dziedziny zjawisk. Ambitny program grupy HHNT, mający z założenia doprowadzić do komputerowej symulacji odkryć teoretycznych, nie został dotąd zrealizowany, przy czym cel ten, postawiony ponad 20 lat temu, wydaje się nadal dość odległy. Nie koniec na tym. Istnieją przesłanki pozwalające zaprzeczać, jakoby jakiekolwiek systemy AI mogły być w ogóle zdolne do dokonywania odkryć naukowych. Na przykład M. Czarnocka (2003) przytacza trzy warunki, które, jak twierdzi, muszą być spełnione, aby można było mówić o odkryciu naukowym i dochodzi do wniosku, że systemy sztucznej inteligencji nie są w stanie spełnić żadnego z nich. Cytuję za autorką: Badam fundamentalne warunki odkrycia i możliwość ich realizowania przez sztuczne inteligencje. Warunki te są następujące. Po pierwsze przyjmuję, że chociażby wstępna aprobata w nauce wymaga, aby zostało ono zaprezentowane w obowiązujący sposób, a mianowicie, aby wyrażono je w języku semantycznie zinterpretowanym, wyposażonym w sensy. Po drugie, zakładam, że odkrycie musi być odkryciem czegoś, jakiegoś obiektu – prawa przyrody, przedmiotu jednostkowego określo- 22 nego typu, zjawiska danego rodzaju. Zatem odkrycie musi mieć przedmiot, który koniecznie należy skonceptualizować, przedstawić za pomocą naukowych pojęć. Po trzecie zaś przyjmuję, że odkrycie wnosi coś nowego do dziedziny poznania. Nie redukuje się do wiedzy zastanej. Te trzy założenia nie są kwestionowane ani nawet dyskutowane. Uznaje się je – jak można wnosić – za pewniki, stanowiące fundament badań nad odkryciem (s. 120). Otóż „sztuczne inteligencje nie spełniają żadnego z tych trzech elementarnych, koniecznych warunków odkryć naukowych. Nie są zatem zdolne do zastąpienia ludzkiego podmiotu poznania w odkrywaniu nowych tajemnic rzeczywistości” – argumentuje dalej Czarnocka (s. 120). Można kwestionować lub osłabić niektóre z zarzutów autorki. Opierają się one bowiem na analizie systemów grupy Simona, nie uwzględniając osiągnięć pozostałych dwóch programów badawczych. Przede wszystkim systemy tradycji Turinga stosują metodę indukcyjną przy formułowaniu nowych praw, a w systemach grupy HHNT indukcja znajduje się na centralnym miejscu jako metoda uzyskiwania nowej wiedzy. Można poza tym dyskutować, na przykład w świetle badań J. Żytkowa (1995/96), czy systemy odkryć są rzeczywiście w takim stopniu pozbawione kontaktu z doświadczeniem, jak twierdzi autorka. Jednakże, nawet jeśli przyjmiemy konkluzje autorki bez jakichkolwiek zastrzeżeń, to nie dyskredytują one roli systemów odkryć w procesie poszukiwania racjonalnej rekonstrukcji odkrycia naukowego. Można bowiem na dyskutowane kwestie spojrzeć w inny sposób. Dlaczego mamy sądzić, że tylko systemy na tyle doskonałe, by mogły zastąpić człowieka–badacza we wszystkich przejawach twórczej działalności prowadzącej do odkryć naukowych, począwszy od obserwacji przyrody i dostrzegania interesujących, ważnych zjawisk i problemów, poprzez konstruowanie aparatury eksperymentalnej i dokonywanie eksperymentów, aż po tworzenie fundamentalnych, abstrakcyjnych teorii, mogą stanowić dowód istnienia „logiki odkrycia naukowego”? Może nie istnieje ta jedyna „logika odkrycia”, wszak Herbert Simon mocno podkreślał, że nie istnieje nic takiego jak „prawdziwa istota” czy „esencja” odkrycia naukowego, lecz wiele procedur, które mogą prowadzić do zdobywania nowej wiedzy. Już samo określenie i pojęciowa artykulacja tych procedur, konieczna do budowy systemów odkryć wszystkich trzech omawianych tradycji, stanowi duży sukces poznawczy. Grupa Simona dokonała wielu ciekawych rekonstrukcji odkryć, pokazując, że proces odkrycia naukowego można rozbić na wiele prostych 23 etapów poddających się, przynajmniej częściowo, racjonalnej analizie. Sukcesy praktyczne systemów wywodzących się z tradycji Turinga zdają się wskazywać, że indukcja w duchu Bacona i Milla staje się pełnoprawną metodą uzyskiwania wiedzy, choćby nawet o bardzo skromnym, empirycznym charakterze. Grupa HHNT, pomimo braku spektakularnych sukcesów praktycznych, konsekwentnie jęła się niezmiernie trudnego zadania, mogącego doprowadzić do rekonstrukcji odkryć o charakterze teoretycznym i już udało jej się dokonać symulacji wielu istotnych procesów z nim związanych, takich jak analogia, kombinacja pojęciowa czy myślenie obrazowe. Jeśli więc, z jednej strony, udało się pewne wybrane aspekty i dziedziny odkrycia naukowego odrzeć z aury mistycyzmu i tajemniczości i wyrazić w bardziej racjonalnych terminach, a z drugiej położyć przynajmniej podwaliny pod taką racjonalną artykulację, to znaczy, że systemy odkryć stanowią lub wkrótce mogą stanowić konstruktywny dowód czy raczej wiele poszczególnych fragmentów dowodu istnienia logiki odkrycia naukowego – dowodów wcześniej niedostępnych dla filozofów nauki. Literatura [1] Alai, M. (2004): AI, Scientific Discovery and Realism, Minds and Machines, 14, pp. 21– 42. [2] Buchanan, B., Feigenbaum, E. (1978): DENDRAL and meta-DENDRAL: Their Applications Dimension, Artificial Intelligence, 11, pp. 5–24. [3] Cartwright, N. (1983): How the Laws of Physics Lie, Oxford, Oxford Univ. Press. [4] Croft, D., Thagard, P. (2002): Dynamic imagery: A Computational Model of Motion and Visual Analogy, in: L. Magnani and N. Nersessian, (eds.), Model-based Reasoning: Science, Technology, Values. New York, Kluwer/Plenum, pp. 259–274. [5] Czarnocka, M. (2003): Sztuczna inteligencja a odkrycie naukowe, [w:] Krajewski, W., Strawiński, W. (red.), (2003), ss. 119–127. [6] Fischer, P., Żytkow, J. (1990): Discovering Quarks and Hidden Structure, in: Z. Ras, M. Zemankova, and M. L. Emrich, (eds.), Methodologies for Intelligent Systems, 5, New York, Elsevier Science Publishing Co., pp. 362–370. [7] Gillies, D. (1992): Comments on “Scientific Discovery as Problem Solving” by Herbert A. Simon, International Studies in the Philosophy of Science, 6, pp. 29–32. [8] Gillies, D. (1996): Artificial Intelligence and Scientific Method, New York, Oxford Univ. Press. [9] Giza, P. (2006): Filozoficzne i metodologiczne aspekty komputerowych systemów odkryć naukowych, Lublin, Wyd. UMCS. [10] Holland, J., Holyoak, K., Nisbett, R., Thagard, P. (1986): Induction: Processes of Inference, Learning, and Discovery, Cambridge, MIT Press. [11] Holyoak, K., Thagard, P. (1989): Analogical Mapping by Constraint Satisfaction, Cognitive Science, 13, pp. 295–355. 24 [12] Holyoak, K., Thagard, P. (1995): Mental Leaps: Analogy in Creative Thought. Cambridge, MIT Press. [13] Holyoak, K., Thagard, P. (1997): The Analogical Mind, American Psychologist, 52, pp. 35–44. [14] Krajewski, W., Strawiński, W. (red.), (2003): Odkrycie naukowe i inne zagadnienia współczesnej filozofii nauki, Warszawa, Wyd. Semper. [15] Kulkarni, D., Simon, H. (1988): The Processes of Scientific Discovery: The Strategy of Experimentation, Cognitive Science, 12, pp. 139–175. [16] Langley, P., Simon, H., Bradshaw, G., Żytkow, J. (1987): Scientific Discovery: Computational Explorations of the Creative Processes, Cambridge, The MIT Press. [17] Michalski, R. S., Chilautsky, R. L. (1980): Learning by Being Told and Learning from Examples: An Experimental Comparison of the Two Models of Knowledge Acquisition in the Context of Developing an Expoert System for Soybean Disease Diagnosis, Journal of Policy Analysis and Information Systems, 4, pp. 125-161. [18] Muggleton, S., Feng, C. (1992): Efficient Induction of Logic Programs, in: S. Muggleton, (ed.), Inductive Logic Programming, London, Academic Press, pp. 281–298. [19] Muggleton, S., King, R., Sternberg, M. (1992): Protein Secondary Structure Prediction using Logic-Based Machine Learning, Protein Engineering, 5/7, pp. 647–57 [20] Newell, A., Simon, H. (1972): Human Problem Solving, New York, Prentice Hall. [21] Quinlan, J. R. (1979): Discovering Rules by Induction from Large Collections of Examples, in: D. Michie, (ed.), Expert Systems in the Microelectronic Age, Edinburgh, Edinburgh Univ. Press, pp. 168–201. [22] Quinlan, J. R. (1986): Induction of Decision Trees, Machine Learning, 1, pp. 81–106. [23] Simon, H. (1979): Models of Thought, New Haven, Yale Univ. Press. [24] Simon, H. (1992a): Scientific Discovery and Problem Solving, International Studies in the Philosophy of Science, 6, pp. 1–14. [25] Simon, H. (1992b): Reply to Critics, International Studies in the Philosophy of Science, 6, pp. 69–88. [26] Thagard, P. (1988): Computational Philosophy of Science, Cambridge, MIT Press. [27] Thagard, P. (1992): Conceptual Revolutions, Princeton, Princeton Univ. Press. [28] Thagard, P. (1996): Mind: Introduction to Cognitive Science, Cambridge, MIT Press. [29] Thagard, P. (1998): Computation and the Philosophy of Science, in: T. Ward and J. Moor, (eds.), How Computers are Changing Philosophy, New York, Blackwell, pp. 48–61. [30] Thagard, P., Holyoak, K., Nelson, G., Gochfeld, D. (1990): Analog Retrieval by Constraint Satisfaction, Artificial Intelligence, 46, pp. 259–310. [31] Żytkow, J. (1987): Combining Many Searches in the FAHRENHEIT Discovery System, Proceedings of the Fourth International Workshop on Machine Learning, Irvine, CA, pp. 281–287. [32] Żytkow, J. (1990): Deriving Laws Through Analysis of Processes and Equations, in: J. Shrager and P. Langley, (eds.), Computational Models of Scientific Discovery and Theory Formation, San Mateo, CA, Morgan Kaufmann, pp. 129–156. [33] Żytkow, J. (1993): Automatyzacja odkrycia naukowego, Filozofia Nauki, 4, ss. 37–54. [34] Żytkow, J. (1995/96): Creating a Discoverer: Autonomous Knowledge Seeking Agent, Foundatins of Science, 2, pp. 253–283. 25