Czy możliwa jest automatyzacja odkrycia naukowego

Transkrypt

Czy możliwa jest automatyzacja odkrycia naukowego
Piotr Giza
Czy możliwa jest automatyzacja odkrycia naukowego:
perspektywy głównych programów badawczych w
dziedzinie teorii odkryć maszynowych
Streszczenie
W referacie rozważam pewne zarzuty natury filozoficznej i epistemologicznej wysuwane przez niektórych filozofów nauki wobec programu automatyzacji odkryć naukowych podjętego przez badaczy w dziedzinie sztucznej inteligencji. Jedne zarzuty dotyczą
kwestii fundamentalnych, jak niemożność zaprezentowania wyników odkrycia w języku
semantycznie zinterpretowanym, brak niezależnego od poznającego podmiotu, przedstawionego za pomocą pojęć naukowych przedmiotu odkrycia, czy fakt, że odkrycia
dokonane przez systemy nie wnoszą nic nowego do dziedziny poznania. Inne wytykają
niedostatki a nawet błędy metodologiczne poszczególnym programom badawczym czy
twórcom systemów. Staram się odpowiedzieć na pytanie, na ile zarzuty te są trafne i jakie
wobec tego perspektywy rozwoju systemów odkryć wyłaniają się na dającą się przewidzieć przyszłość.
1 Wstęp
W latach 1970. kilku badaczy sztucznej inteligencji w USA zwróciło
swoje zainteresowania na obszar uważany jak dotąd jedynie za domenę
geniuszu – odkrycia naukowe. Chodziło o zaprojektowanie i uruchomienie systemów komputerowych, które miały modelować historyczny proces odkrycia naukowego w dziedzinach takich jak matematyka, fizyka,
chemia, czy biologia. Teoria odkryć maszynowych leży na obszarze zainteresowań zarówno filozofii nauki, jak i samej nauki. Jest formą ścisłego uprawiania filozofii nauki zmuszającą do dbałości o szczegóły i precyzyjnego wyartykułowania swoich idei. Współczesne systemy odkryć
mają też coraz większe znaczenie dla samej nauki: są one w stanie znaleźć równania empiryczne pasujące do danych wejściowych w laboratorium, przeanalizować bazy danych pod kątem użytecznej wiedzy, formułować i uzasadniać hipotezy na temat ukrytej struktury materii wyjaśniającej zjawiska obserwowalne. W idealnym, docelowym przypadku
możemy sobie takiego maszynowego odkrywcę wyobrazić jako robota,
który przeprowadza eksperymenty i rozwija teorie na podstawie analizy
uzyskiwanych danych.
Badaniom nad komputerowym modelowaniem odkryć naukowych
przyświeca kilka celów. Pierwszy z nich to poznanie psychologicznych
procesów przetwarzania informacji związanych z odkryciem naukowym
dokonywanym przez badaczy i odtworzenie ich za pomocą systemów
komputerowych. Drugi cel to przynajmniej próba naszkicowania normatywnej teorii odkrycia naukowego, podanie pewnych reguł, którymi
należałoby się kierować, chcąc osiągnąć sukces w dokonywaniu odkryć.
Trzeci cel polega na zbadaniu wzajemnych relacji pomiędzy procesami
odkrywania i weryfikacji teorii. Wreszcie czwarty cel to próba stworzenia nowych metod analizy historycznego procesu odkrycia, oprócz istniejących, tradycyjnych metod opisowych i logiczno-formalnych.
Rozważania filozoficzne czy metodologiczne na temat systemów odkryć można odnieść do tego, czy i w jakim stopniu wspomniane cele są
realizowane.
W perspektywie poznawczej czy historycznej systemy jawią się jako
próba rekonstrukcji procesu odkryć dokonywanych historycznie przez
ludzi. Na tym polu dokonania teorii odkryć maszynowych są raczej
skromne i, jak sami badacze przyznają, cel ten ma, jak dotąd, raczej marginalne znaczenie.
Z perspektywy metodologicznej natomiast znacznie ważniejszą sprawą jest osiągnięcie celu drugiego: sformułowania zasad czy metod, którymi należy się kierować w działalności badawczej. Chodzi więc bardziej
o osiągnięcie skuteczności i efektywności systemu niż o wierne odtworzenie rozumowań ludzkich badaczy. Miarą skuteczności owych norm
czy metod postępowania są osiągnięcia samych systemów.
Systemy odkryć są więc z jednej strony komputerowo uprawianą filozofią, a częściowo, i w mniejszym stopniu, historią nauki zmuszającą do
dbałości o szczegóły i dającą większe możliwości niż podejście tradycyjne. Z drugiej strony, jeśli tradycyjnie filozofię nauki umieszcza się w tzw.
kontekście uzasadniania, to teoria odkryć maszynowych mieści się w
normatywnym podejściu do odkrycia, rozszerzając zakres badań filozofii
nauki. Gotowe systemy to, jak twierdzą ich autorzy, konstruktywny dowód istnienia metody odkrycia naukowego.
W kolejnych sekcjach przedstawię krótko osiągnięcia i porównam
założenia metodologiczne tkwiące u podstaw trzech głównych tradycji
badawczych zajmujących się komputerowym modelowaniem odkryć
naukowych. Są to: grupa skupiona wokół Herberta Simona, badacze
2
wywodzący się z tzw. tradycji Alana Turinga oraz przedstawiciele programu badawczego zwanego HHNT.1
Nie wszyscy autorzy systemów odkryć naukowych czy przedstawiciele głównych programów badawczych byli zainteresowani sformułowaniem explicite głębszych założeń metodologicznych, a tym bardziej
filozoficznych, swoich dociekań badawczych. Wielu twórców systemów
po prostu przyjęło jako punkt wyjścia jakąś umiejętność ludzkich badaczy w konkretnej, historycznej sytuacji odkrycia naukowego i postanowiło dokonać komputerowej symulacji tego odkrycia.2 Innym badaczom,
np. twórcom systemów eksperckich z tradycji Alana Turinga, przyświecały cele czysto praktyczne, jak stworzenie użytecznych systemów
wspomagających pracę badaczy, lekarzy czy ekspertów w przemyśle.
Jeszcze inni badacze (grupa HHNT) stawiali przed sobą ambitne cele
teoretyczne, polegające na stworzeniu skomplikowanego, pojęciowego
modelu zachowania się ludzkiego umysłu w sytuacjach problemowych i
na jego realizacji komputerowej. Można bez wielkiej przesady stwierdzić, że jedynie grupa Simona wypracowała konsekwentny, spójny program metodologiczny oraz wyraźnie sformułowała cele, jakie stoją przed
systemami odkryć naukowych.
2. Grupa Herberta Simona
Podstawowe założenie metodologiczne teorii odkryć maszynowych
zostało chyba najtrafniej sformułowane w znanej książce Langleya, Simona, Bradshawa i Żytkowa, Scientific Discovery: Computational Explorations of the Creative Processes (1987). Brzmi ono następująco:
[…] mechanizmy odkrycia naukowego nie mają specyficznego, unikalnego
dla tej działalności charakteru, lecz stanowią szczególny przypadek ogólnych
mechanizmów rozwiązywania problemów (Langley et al., 1987, s. 5).
Rzecz jasna autorzy są świadomi ewidentnych, zdawałoby się, różnic
pomiędzy zwykłym rozwiązywaniem problemów a procesem odkrycia
naukowego, twierdzą jednak, że nie podważają one przedstawionej powyżej tezy, a to z dwóch powodów: po pierwsze, rozwiązywanie skom_____________
1 Skrót ten, zaproponowany przez M. Alai (2004), pochodzi od nazwisk czterech badaczy: J. Hollanda, K. Holyoaka, R. Nisbetta i P. Thagarda.
2 Taką opinię wygłasza jeden z najwybitniejszych twórców systemów odkryć Jan Żytkow (1993, s. 39).
3
plikowanych problemów w dziedzinie sztucznej inteligencji dokonuje się
poprzez ich zdekomponowanie na prostsze podproblemy, a następnie
kolejne ich rozwiązywanie; po drugie, owe podprocesy czy komponenty
procesu odkrycia naukowego nie różnią się w istotny jakościowy sposób
od procesów występujących w rozwiązywaniu zwykłych, dostatecznie
skomplikowanych problemów.
Teoria rozwiązywania problemów, na którą powołują się autorzy, to
oczywiście koncepcja inteligencji oparta na przetwarzaniu informacji w
postaci symbolicznej (information-processing theory of intelligence). Głosi
ona, że istotą inteligencji tak sztucznej, jak i naturalnej jest zdolność formalnego manipulowania symbolami reprezentującymi różne aspekty
rzeczywistości (Newell i Simon, 1972; Simon, 1979). Jej podstawowym
pojęciem jest system symboli fizycznych (physical symbol system), zwany
też systemem przetwarzania informacji o postaci symbolicznej (information-processing system).
Argumenty, jakie przytacza Simon i jego współpracownicy na poparcie twierdzenia że odkrycie naukowe sprowadza się do rozwiązywania
problemów, są dwojakiego rodzaju.
Po pierwsze, twierdzą oni, że najlepszym uzasadnieniem słuszności tego założenia, a ogólnie całego programu badawczego teorii odkryć maszynowych, jest skuteczność działania systemów odkryć, że systemy te
„[…] stanowią konstruktywny dowód istnienia normatywnych mechanizmów odkryć” (Żytkow, 1993, s. 38), a zarazem istnienia szeroko pojętej
„logiki” odkrycia naukowego. Autorzy zastrzegają się jednak, że nie
chodzi tu o dokładną symulację rzeczywistych zachowań odkrywców w
sytuacjach problemowych. Koncentrują się raczej na poziomie heurystyk,
starając się włączyć do nich metody, którymi, według nich, naukowcy
posługują się przy poszukiwaniu regularności w przyrodzie.
Po drugie, autorzy wyróżniają rozmaite formy twórczej działalności
naukowej związanej z odkryciami, starając się wyeksplikować je przy
pomocy stosowanych w teorii sztucznej inteligencji zasad rozwiązywania problemów, nawet jeśli na obecnym etapie nie udało się jeszcze dokonać ich symulacji przy pomocy systemów komputerowych.
Przede wszystkim Simon, główny jeśli można tak powiedzieć ideolog
grupy, stwierdza bardzo mocno, że nie istnieje jakiś jeden „tajemniczy
proces odkrycia naukowego”, lecz mamy do czynienia z całą różnorodnością form działalności naukowej koniecznych do tego, aby nauka mogła dokonywać odkryć (Langley et al., 1987, s. 58; Simon, 1992b, s. 69).
Naukowcy w swej pracy wykonują bardzo różnorodne czynności ba-
4
dawcze: odkrywają i opisują problemy, znajdują dla nich odpowiednie
reprezentacje, projektują aparaturę konieczną do przeprowadzenia doświadczeń, planują procedury i strategie eksperymentalne, planują i wykonują eksperymenty, uzyskują dane, prowadząc obserwacje, formułują
prawa i teorie na podstawie danych, używając rozumowań opartych na
matematyce i innych dziedzinach wiedzy, wyprowadzają konsekwencje
ze swoich teorii czy tworzą teorie, których zadaniem jest głębsze wyjaśnienie praw o charakterze opisowym.
Otóż Simon twierdzi, że wszystkie te dziedziny działalności naukowej
są formą rozwiązywania problemów i utrzymuje, że dysponujemy bezpośrednimi empirycznymi dowodami prawdziwości tego twierdzenia
dla większości, jeśli nie wszystkich opisanych grup.
Wyprowadzanie praw ze zbioru danych jest zapewne dziedziną, w której
grupa Simona ma największe osiągnięcia. Seria coraz doskonalszych i
wzbogacanych o kolejne możliwości programów, począwszy od
BACON.1, a skończywszy na BACON.5 oraz system FAHRENHEIT
(Żytkow, 1987) zostały zaprojektowana w tym właśnie celu. Programy te
symulują odkrycie wielu znanych praw, głównie z dziedziny fizyki z
XVII, XVIII i XIX wieku, takich jak prawo Keplera, prawo swobodnego
spadku Galileusza, prawo załamania Snelliusa, prawo bilansu cieplnego
Blacka czy prawo Ohma. Inne programy, jak GLAUBER, formułują prawa o charakterze jakościowym na podstawie również jakościowych danych opisujących substancje wchodzące w reakcje chemiczne (Langley et
al., 1987, rozdz. 6).
Planowanie eksperymentów jest kolejną dziedziną, którą według Simona
udało się zbadać przy pomocy symulacji komputerowych. Powołuje się
on na wyniki osiągnięte wspólnie z D. Kulkarni (Kulkarni i Simon, 1988)
nad odtworzeniem przy pomocy programu komputerowego KEKADA
serii eksperymentów, jakie na początku lat 1930. przeprowadził niemiecki biolog Hans Krebs. Krebsowi udało się zbadać reakcje syntezy mocznika w żywych tkankach przez stopniowe modyfikowanie planu badań
w oparciu o dane uzyskane w poprzednich eksperymentach w taki sposób, aby zdobyć istotne dla dalszych badań dane. System KEKADA zawiera heurystyki, które stosował w swoich badaniach Krebs. Co więcej,
na podstawie dotychczas uzyskanych danych jest on w stanie tworzyć
pewne oczekiwania na temat wyników przyszłych eksperymentów i w
przypadku ich niezgodności z danymi stosować strategię „odpowiedzi
na dziwne zjawisko”, polegającą na zlokalizowaniu tego zjawiska i po-
5
szukiwaniu jego mechanizmów. Takie właśnie postępowanie doprowadziło Krebsa do ustalenia rzeczywistych mechanizmów reakcji.
Teorie wyjaśniające. Simon dostrzega fakt, iż wiele odkryć dokonanych
przez programy BACON polega jedynie na formułowaniu uogólnień
empirycznych (o postaci funkcji matematycznych wielu zmiennych),
będących, jak to określa, „skróconym opisem danych”. Funkcje te nie
wyjaśniają, dlaczego dane przyjmują takie, a nie inne wartości. Przykładowo, „odkryte” przez system trzecie prawo Keplera opisuje relację pomiędzy okresem obiegu planety wokół Słońca a promieniem jej orbity,
podczas gdy dynamika Newtona tę relację wyjaśnia, odwołując się do
ogólnych zasad, takich jak prawo powszechnego ciążenia, zasady dynamiki oraz matematyczne prawidła ruchu po krzywych. Rozróżnienie
tego typu wprowadza i dokładnie analizuje, zwłaszcza w aspekcie sporu
realizm – antyrealizm, N. Cartwright (1983). Oprócz faktu, iż systemy
odkryć grupy Simona nie są samodzielnie w stanie tworzyć (poszukiwać) reprezentacji problemów, jeszcze jedna istotna okoliczność (prawdopodobnie będąca jego konsekwencją) przemawia za tym, że jak dotąd
nie udało się przy pomocy systemów odkryć replikować procesów odkrywania teorii wyjaśniających. Otóż nawet systemy posiadające zaawansowane heurystyki i sposoby reprezentowania danych, nastawione
na odkrywanie ukrytej, mikroskopowej struktury materii, takie jak
GELL-MANN (Fischer i Żytkow, 1990), także nie stanowią przykładu
generowania wyjaśnień teoretycznych. Systemy tego typu funkcjonują,
używając terminologii Cartwright na poziomie praw fenomenologicznych o wąskim zakresie zastosowań, a nie ogólnych, abstrakcyjnych teorii wyjaśniających.
Kolejną formą działalności naukowej, o której Simon (1992a, s. 11;
Langley et al., ss. 313–314) wspomina raczej marginalnie i która nie była
dotąd tematem szczegółowych badań jego grupy, jest wynajdowanie nowych instrumentów. Wyraża on jednak przekonanie, że tak jak w innych
przypadkach wyżej dyskutowanych, tak i tu można wyjaśnić procesy
odkryć przy pomocy przeszukiwania heurystycznego. Podaje nawet
dwie dyrektywy heurystyczne: jedna zaleca poszukiwanie instrumentów, które wykorzystywałyby nowe zjawiska, druga – poszukiwanie
nowych zjawisk przy pomocy coraz doskonalszych instrumentów pomiarowych. Częściowe przynajmniej wykorzystanie tej drugiej heurystyki znaleźć można w systemie FAHRENHEIT, stworzonym przez Jana
Żytkowa (Żytkow, 1987).
6
Argumenty krytyczne
Program badawczy grupy skupionej wokół Herberta Simona jest, jeśli
można użyć tego słowa, bardzo ambitny. Grupa może się poszczycić
podbudową ideologiczną w postaci koncepcji rozwiązywania problemów przez umysł ludzki oraz wieloma wdrożonymi programami dokonującymi odkryć w różnych dziedzinach nauki. Nic więc dziwnego, że
oprócz głosów pełnych entuzjazmu, a nawet podziwu program spotkał
się z ostrą krytyką zarówno w kwestii jego założeń metodologicznych,
jak i osiągnięć.3
Wielu krytyków zarzuca Simonowi, że jego ujęcie nie oddaje istoty,
esencji czy prawdziwej natury odkrycia naukowego. Owa esencja odkrycia naukowego bywa jednak różnie rozumiana przez różnych autorów.
Dla jednych jest ona związana ze znalezieniem czy sformułowaniem problemu, dla innych – z przedstawieniem odpowiedniej reprezentacji dla
problemu.4
I tak D. Gillies (1992), jeden z najbardziej zaciętych krytyków Simona i
zdecydowany rzecznik systemów stworzonych w ramach tradycji A.
Turinga, uważa znalezienie, postawienie i właściwe sformułowanie problemu za, być może, najważniejszy, najbardziej twórczy element odkrycia naukowego. Wedle Gilliesa programy Simona nie dokonują (nawet
ponownie) tych samych odkryć w tych samych warunkach początkowych, jak
czynią to oryginalni odkrywcy. Przykładowo, w przypadku prawa Keplera istotny, twórczy, najtrudniejszy krok polegał na ustaleniu, które
zmienne są ze sobą powiązane, oraz znalezieniu ogólnej formy poszukiwanego prawa. A to wszystko było z góry przez Simona dane zarówno
systemom z serii BACON, jak i badanym przez niego w laboratorium
psychologicznym ochotnikom.
Inni krytycy twierdzą, że to właśnie definiowanie problemów czy
stawianie pytań ma kluczowe znaczenie w odkryciach naukowych. Odkrycie naukowe jest trudne, ponieważ stawianie interesujących pytań
czy definiowanie problemów, a nie ich rozwiązywanie stanowi główną
trudność. Problemy, przed którymi stają naukowcy, są trudne, ponieważ
nie są w pełni zdefiniowane (ill-defined). Zawierają w sobie wiele pytań,
na które badacz nie zna z góry odpowiedzi. Tymczasem problemy, które
daje do rozwiązania grupa Simon swoim systemom są już z góry „opra_____________
3 Krytycznej dyskusji dotyczącej programu Simona został nawet poświęcony specjalny numer International Studies in the Philosophy of Science (1992, vol. 6, nr 1).
4 Obszernie analizuję te argumenty w pracy Giza, 2006.
7
cowane” i przygotowane, tak że przypominają raczej ćwiczenia książkowe, które zadaje się studentom do rozwiązania. Nic więc dziwnego, że
grupa Simona nie może, choć powinna, poszczycić się mnóstwem całkowicie nowych odkryć naukowych: ich programy nie chwytają istoty odkrycia naukowego – powiadają krytycy.
Kolejna grupa zarzutów krytycznych wobec stanowiska Simona opiera się na twierdzeniu, że „prawdziwa istota” odkrycia naukowego polega na znalezieniu właściwej reprezentacji problemu, a tego aspektu odkrycia naukowego systemu Simona nie oddają. Uniemożliwia im to między innymi dokonywanie odkryć o charakterze teoretycznym, a więc
tych najbardziej wartościowych, fundamentalnych, wykraczających poza
„normalną naukę”.
W jaki sposób Simon odpowiada na takie zarzuty? Otóż, jak już
wspomniałem, argumentuje, że nie istnieje nic takiego, jak prawdziwa
„esencja” odkrycia naukowego ani „twórczy krok” w dokonaniu jakiegoś odkrycia. Swoim krytykom zarzuca on błąd, który określa jako the
Fallacy of the Definite Article, co można przetłumaczyć: błąd polegający na
użyciu przedimka określonego the. Krytycy mianowicie uważają, że
określony aspekt działalności badawczej stanowi tę jedyną, twórczą esencję
odkrycia naukowego, dowodząc zarazem, że rekonstrukcje komputerowe dokonane przez Simona i jego grupę tego aspektu nie oddają. Simon
przytacza więc wiele przykładów najdonioślejszych odkryć z historii
nauki, gdzie właśnie rozwiązanie problemu, a nie jego znalezienie czy
sformułowanie, ani też znalezienie dla niego nowej reprezentacji stanowiło „twórczy krok” i przyniosło sławę i uznanie odkrywcy.
Rzecz jasna, kwestia jest dyskusyjna, można bowiem replikować, że
owe nieujęte (lub ujęte w niewystarczającym stopniu) prze symulacje
grupy Simona aspekty odkrycia, na które zwracają uwagę krytycy nie
muszą stanowić jego „esencji” – wystarczy, że są niezbędnym składnikiem wielu istotnych odkryć, szczególnie tych o charakterze teoretycznym i dopóki projektowane systemy nie uporają się z tym problemem, o
pełnym sukcesie nie ma mowy.
Podsumowując rozważania tej sekcji, należy stwierdzić, że rekonstrukcja odkryć naukowych dokonana przez grupę Simona jest niepełna:
brak w niej istotnych elementów, takich jak poszukiwanie i formułowanie problemów oraz reprezentacji (szczególnie o charakterze modeli teoretycznych) czy analiza odkryć teoretycznych. Wydaje się, że stanowi to
przyczynę, dla której grupa nie może się poszczycić całkowicie nowymi
odkryciami dokonanymi przez systemy. Niemniej należy oddać spra-
8
wiedliwość ambitnym zamierzeniom i niewątpliwym osiągnięciom grupy Simona: jak stwierdził jeden z komentatorów (Alai, 2004), niepowodzenia programu Simona wynikają w dużej mierze ze skali trudności
podjętych po raz pierwszy problemów. Metoda dekompozycji skomplikowanych problemów na prostsze podproblemy oraz „redukcja kognitywistyczna”, sprowadzająca tajemnicze, niemal mistyczne „przebłyski
geniuszu” towarzyszące, w powszechnej opinii, odkryciom naukowym
do następujących po sobie kroków polegających na procesach stopniowego rozwiązywania problemów, jest nie tylko interesująca poznawczo,
ale także okazała się płodna i skuteczna w formułowaniu praw empirycznych – tak ilościowych, jak i jakościowych – na podstawie danych.
3. Tradycja Alana Turinga
Drugim nurtem badań nad odkryciem naukowym jest tzw. tradycja
Turinga. W odróżnieniu jednak od grupy H. Simona badacze wywodzący się z tej tradycji nie tylko nie wypracowali spójnego programu teorii
odkryć naukowych, ale, co należy mocno podkreślić, nie było to nigdy
ich celem. Autorzy systemów powstałych w tej tradycji nie stawiali sobie
za cel jakichkolwiek głębszych dociekań natury filozoficznej czy metodologicznej. Interesowało ich jedynie zastosowanie aparatu programowania logicznego do bardzo konkretnych, praktycznych problemów
związanych z zastosowaniem systemów eksperckich. Dopiero wspomniany w poprzedniej sekcji jako krytyk programu Simona, filozof Donald Gillies dostrzega pewne implikacje natury ogólniejszej w systemach
tej grupy, co więcej, twierdzi, że jej osiągnięcia w dziedzinie machine learning5 znacznie przewyższają osiągnięcia grupy Simona w dziedzinie odkryć naukowych.
Tradycja Turinga bierze swój historyczny początek od jego rozważań
nad słynną maszyną, nazwaną później od jego nazwiska, oraz nad algorytmami szyfrującymi, które w czasie II wojny światowej zaowocowały
złamaniem kodu niemieckiej maszyny Enigma. Wtedy to do Alana Turinga dołączył Donald Michie, który najpierw, wraz z nim, zajmował się
_____________
5 Termin ten, nieco wieloznaczny, można w rozmaitych kontekstach tłumaczyć jako
„uczenie maszynowe”, „uczenie się maszyn” czy nawet „uczenie przy pomocy maszyn”.
W systemach eksperckich, o których mowa, chodzi o sformułowanie drogą indukcji praw
produkcji dla systemu eksperckiego na podstawie jednostkowych przypadków, w
związku z czym dwa pierwsze przekłady wydają się najwłaściwsze. Niemniej, w dalszej
części pracy, pozostanę przy terminie oryginalnym.
9
kryptoanalizą w ośrodku badawczym w Bletchley, a później założył departament sztucznej inteligencji na uniwersytecie w Edynburgu oraz
Instytut Turinga w Glasgow. To właśnie Michie w decydujący sposób
przyczynił się, zdaniem Gilliesa, do rozprzestrzeniania idei Turinga zarówno w Europie, jak i poza nią. Wśród badaczy, na których wywarł on
znaczący wpływ, znaleźli się między innymi późniejsi twórcy ważnych
systemów w dziedzinie machine learning, tacy jak S. Muggleton, J. R. Quinlan, E. Shapiro czy I. Bratko. Grupa ta jest rozrzucona przestrzennie, jej
członkowie pracują w Anglii, Słowenii, Stanach Zjednoczonych, a nawet
Japonii, niemniej dzięki nowoczesnym technologiom wymiany informacji była w stanie stworzyć, jak to określa Gillies, swą własną tradycję intelektualną.6
Systemy machine learning w tradycji Turinga wyrosły w kontekście
badań jakie już w latach 1960. prowadzono nad zastosowaniem systemów eksperckich do rozwiązywania praktycznych problemów w dziedzinach takich jak medycyna, technika czy przemysł. Do końca lat 1970.
stało się jasne, że systemy eksperckie są bardzo użyteczne z praktycznego punktu widzenia, w ich tworzeniu i zastosowaniach pojawił się jednak pewien istotny problem. Polegał on na uzyskaniu wiedzy potrzebnej
do stworzenia bazy praw systemu od ekspertów w danej dziedzinie.
Początkowo dokonywano tego poprzez żmudne i długie „wywiady”
przeprowadzane przez twórców systemów z ekspertami. Wkrótce się
jednak okazało, że eksperci posiadają wprawdzie praktyczną wiedzę w
danej dziedzinie, lecz jej zwerbalizowanie, a tym bardziej sformułowanie
w sposób na tyle ścisły i logiczny, aby mogła być zakodowana w postaci
praw produkcji przydatnych dla systemu eksperckiego, jest bardzo
trudne, czasochłonne, a czasem wręcz niemożliwe. Tę istotną przeszkodę
dla szybko rozwijającej się dziedziny badań i zastosowań praktycznych
nazwano „wąskim gardłem Feigenbauma”.
Powstanie i rozwój systemów machine learning w tradycji Turinga było, zdaniem Gilliesa, odpowiedzią na tego typu trudności. Zamiast bowiem przeprowadzać żmudne wywiady z ekspertami można skonstruować system, który będzie w stanie drogą indukcji, na podstawie jednostkowych przykładów jednoznacznie ocenionych przez eksperta, sformułować prawa produkcji. Celem tego typu systemów nie jest jednak całkowite wyeliminowanie wywiadów z ekspertami – przeciwnie, eksperci
z jednej strony dostarczają wiedzy pomocnej przy wywnioskowaniu
_____________
6
Patrz Gillies, 1996, s. 25 n.
10
praw produkcji oraz właściwie dobranych przykładów ułatwiających ich
wywnioskowanie, a z drugiej są w stanie ocenić i ewentualnie ulepszyć
ustalone przez system prawa.
Pierwszymi systemami tego typu był Meta-DENDRAL (Buchanan i
Feigenbaum, 1978), którego zadaniem było utworzenie praw produkcji
dla sytemu DENDRAL7 oraz INDUCE (Michalski i Chilautsky, 1980). Te
istotne z historycznego punktu widzenia systemy odniosły znaczące
sukcesy i zapoczątkowały nową dziedzinę badań. Gillies w swoich analizach filozoficznych koncentruje się jednak na następnych systemach
powstałych w nurcie tradycji Turinga, które, jak argumentuje, mają istotne znaczenie dla kontrowersji pomiędzy indukcjonizmem a falsyfikacjonizmem. Osiągnięcia tych systemów dowodzą jego zdaniem, że metoda
indukcji w duchu Bacona i Milla po raz pierwszy znajduje zastosowanie i
odnosi znaczące sukcesy w odkrywaniu nowych prawidłowości tak w
nauce, jak i w różnych praktycznych zastosowaniach technicznych. Systemy te to ID3 (Quinlan, 1979; 1986) oraz GOLEM (Muggleton i Feng,
1992), z których ten drugi, o wiele bardziej zaawansowany, zasługuje na
szczególną uwagę, ze względu na fakt, że spośród systemów powstałych
w tradycji Turinga to właśnie systemowi GOLEM, w przeciwieństwie do
systemów stworzonych przez badaczy z grupy Simona, udało się, w
przekonaniu Gilliesa odkryć całkowicie nowe prawo naukowe, co więcej,
odkrycie to związane jest z istotną i wciąż rozwijającą się dziedziną –
badaniem struktury białek. Jeśliby tak istotnie było, to stanowiłoby to
konstruktywny dowód, a w każdym razie silny argument na rzecz
wspomnianej już głównej tezy Gilliesa, że dzięki systemom komputerowym metoda indukcji znalazła zastosowanie w nauce i obecnie stanowi
pewną formę logiki odkrycia naukowego.
Otóż system GOLEM zastosowany został do pewnej uproszczonej
(lecz nadal bardzo trudnej dla naukowców) wersji problemu polegającego na przewidzeniu drugorzędowej (a więc decydującej o własnościach
biologicznych) struktury białek na podstawie znajomości ich struktury
pierwszorzędowej. Dotychczas można ją było jedynie ustalić na drodze
żmudnych, długich i kosztownych badań przy użyciu bardzo zaawansowanej, specjalistycznej aparatury. System otrzymał najpierw na wej_____________
DENDRAL, stworzony i rozwijany na uniwersytecie Stanford od 1965 roku głównie
przez E. Feigenbauma i B. Buchanana w ramach Projektu Programowania Heurystycznego, przy współpracy z zespołem spektrometrii masowej, został z powodzeniem zastosowany do analizy spektrogramów skomplikowanych związków organicznych, wspomagając tym samym ekspertów w dziedzinie chemii organicznej.
7
11
ściu zbiór treningowy składający się z dwunastu cząsteczek białka o
znanej homologicznej strukturze tak zwanego typu α, zawierających ponad 1500 rodników aminokwasowych. Na podstawie tego zbioru oraz
wiedzy tła GOLEM sformułował pewną niewielką liczbę praw pozwalających przewidzieć, które rodniki są częściami helis α. Dane na temat
przypadków pozytywnych i negatywnych zakodowane były w postaci
predykatów dwuargumentowych o ogólnej postaci: alfa(nazwa_białka,
pozycja), orzekających, że rodnik na określonej pozycji w łańcuchu danej
cząsteczki białka tworzy helisę α.
Otrzymane przez system prawa były następnie testowane na czterech
różnych białkach o znanej, niehomologicznej strukturze, należących do
typu α. Testy wykazały zgodność tych praw z danymi na poziomie 81%
(Gillies, 1996, s. 51).
Dla lepszej ilustracji, pozwolę sobie przytoczyć, za Gilliesem jedno z
takich praw:
W cząsteczce białka A na pozycji B występuje rodnik tworzący helisę
α, jeżeli spełnione są następujące warunki:
– rodnik na pozycji B-2 nie jest proliną
– rodnik na pozycji B-1 nie jest aromatyczny ani nie jest proliną
– rodnik na pozycji B jest duży, niearomatyczny i nie jest lizyną
– rodnik na pozycji B+1 ma własności hydrofobowe i nie jest lizyną
– rodnik na pozycji B+2 nie jest aromatyczny ani nie jest proliną
– rodnik na pozycji B+3 nie jest aromatyczny ani nie jest proliną ani
nie jest mały ani nie ma budowy biegunowej
– rodnik na pozycji B+4 ma własności hydrofobowe i nie jest lizyną.
Z przedstawionego powyżej przykładu Gillies wyciąga bardzo mocne
wnioski: stwierdza, że przytoczone prawo (i inne jemu podobne) jest
całkowicie nowym prawem, które nie było znane aż do czasu sformułowania go przez system GOLEM. Co więcej, prawo to stanowi przyczynek do ważkich współczesnych badań nad przyrodą. Stąd też, jak
utrzymuje (1996, s. 53), mamy prawo twierdzić, że system GOLEM odkrył
nowe prawo przyrody.
Z przytoczonej analizy dokonanej przez autorów systemu wyciąga
wniosek, że odkryte przez system prawa mają charakter przyczynowy:
występowanie konkretnych sekwencji rodników o określonych własnościach powoduje taką, a nie inną strukturę przestrzenną.
12
Argumenty krytyczne
Należy przyznać, że Gillies dokonuje wielu cennych i trafnych analiz
zdających się wskazywać, że metoda naukowa, dzięki rozwojowi systemów machine learning ewoluuje, podobnie jak sama nauka, Indukcja w
duchu Bacona staje się równoprawną metodą zdobywania nowej wiedzy.8
Obawiam się jednak, że entuzjazm Gilliesa dla osiągnięć i, przynajmniej dotychczasowych możliwości, systemów machine learning jest zbyt
daleko idący i nieuzasadniony. Powstaje bowiem zasadnicza wątpliwość:
czy opisane systemy rzeczywiście dokonują odkryć nowych praw naukowych? Sądzę, że nie, a to z trzech powodów:
Przede wszystkim, odkryte przez system GOLEM, na drodze mechanicznej indukcji, uogólnienia nie mogą pretendować do statusu praw
nauki – są jedynie uogólnieniami empirycznymi o bardzo niskim poziomie ogólności.
Po drugie, jak przyznają autorzy systemu i sam Gillies, uogólnienia
sformułowane przez system GOLEM okazały się w testach trafne jedynie
w około 80%.
Po trzecie wreszcie, prawa te zdecydowanie nie mogą pretendować,
wbrew twierdzeniom samego Gilliesa, do miana praw przyczynowych –
nie wyjaśniają bowiem regularności empirycznych poprzez odwołanie
się do ogólniejszych formuł czy mechanizmów przyczynowych, a jedynie stanowią skrótowy opis pewnych korelacji statystycznych.
Wypada więc stwierdzić, że zarzut, jaki podnosił Gillies wobec systemów stworzonych przez grupę Simona, głoszący, że nie dokonują one
żadnych nowych odkryć praw naukowych, ma zastosowanie wobec
systemów, których on sam jest rzecznikiem, a więc systemów grupy Turinga. Systemy te wprawdzie dokonują nowych odkryć, ale formułują
raczej uogólnienia empiryczne czy korelacje statystyczne niż prawa nauki w pełnym tego słowa znaczeniu.
4. Grupa HHNT
Ostatnim, zapewne najbardziej obiecującym nurtem badań w dziedzinie odkryć naukowych jest podejście określane jako program badawczy HHNT. Jest ono w swych założeniach niejako odpowiedzią na pod_____________
8
Szerzej poruszam te kwestie w pracy Giza, 2006, rozdz. 2.
13
stawowe trudności i zarzuty, z jakimi borykają się dwa pozostałe opisane
wyżej podejścia do odkrycia. Nie może się on poszczycić podbudową
ideologiczną oraz wieloma działającymi systemami odkryć, jak grupa
Simona, ani też nowymi prawami empirycznymi, jak tradycja Turinga.
Niemniej jednak sądzę, że wydaje się najbardziej obiecujący na przyszłość, a brak spektakularnych, praktycznych osiągnięć wynika ze skali
trudności i bogactwa podjętych problemów, nie zaś z błędnych założeń
metodologicznych. Program ten bowiem, przynajmniej jeśli chodzi o
odkrycie naukowe, stawia sobie ambitny cel eksploracji mechanizmów
odkryć teoretycznych poprzez odwołanie się do skomplikowanego modelu systemu zdolnego do autonomicznego poszukiwania teorii wyjaśniających.
Program badawczy zwany HHNT jest efektem wspólnej pracy czterech autorów: J. Hollanda, K. Holyoaka, R. Nisbetta i P. Thagarda, pracujących w różnych dziedzinach badań, od psychologii aż po computer
science. Ich pionierską pracą jest Induction: Processes of Inference, Learning,
and Discovery (1986). Od tamtego czasu autorzy nie opublikowali żadnej
wspólnej pracy, chociaż wspólnie osiągnięte i opublikowane wyniki
wywarły znaczący wpływ na dalsze prace badawcze każdego z nich.
Praca ta proponuje pewnie skomplikowany, pojęciowy model funkcjonowania samouczącego się i zdolnego do adaptacji do zmian w środowisku systemu kognitywnego. Jak sugeruje tytuł książki, autorzy stawiają sobie znacznie szerszy i bardziej ambitny cel niż komputerowa
rekonstrukcja czy symulacja procesu odkrycia naukowego. Uważając
indukcję za „ucieleśnienie wszelkich procesów wnioskowania poszerzających wiedzę w obliczu niepewności” (s. 1), autorzy proponują pewne
kompleksowe, pragmatyczne ujęcie indukcji, którego zadaniem ma być
„przezwyciężenie trudności, z jakimi borykały się dotychczasowe ujęcia
tego zagadnienia, zarówno filozoficzne, psychologiczne, jak i komputerowe” (s. 2). Ujęcie to ma udzielić odpowiedzi na kilka podstawowych
pytań: w jaki sposób system kognitywny przetwarza dane wejściowe
pochodzące z zewnętrznego środowiska oraz posiadaną wiedzę tak, aby
korzystać z własnych doświadczeń? W jaki sposób system jest w stanie
oprzeć swe działanie na zgromadzonym doświadczeniu w obliczu nowych sytuacji? W jaki sposób jest on w stanie modyfikować, usuwać i
wprowadzać nowe reguły do swej bazy praw (rule base) tak, aby adekwatnie reagować na nowe sytuacje? Wreszcie: w jaki sposób posługuje
się on metaforą i analogią w celu przeniesienia informacji i procedur postępowania z jednej dziedziny zastosowań do innej?
14
Co więcej, intencją autorów jest stworzenie takiego modelu zachowania się „systemu kognitywnego”, który dałby się ostatecznie przetłumaczyć na procedury możliwe do zrealizowania na komputerze. W niektórych przypadkach zamierzenie to zaowocowało w postaci funkcjonujących programów komputerowych, w innych udało się stworzyć jakościowy model zachowania systemu, który służyć może niejako za zalążek przyszłych symulacji.
Centralnym pojęciem koncepcji HHNT jest model mentalny, tworzony przez system kognitywny w celu reprezentowania środowiska, w
którym się znajduje. Środowisko czy jego wybrany fragment opisywany
jest poprzez zbiór stanów S i funkcję przejścia T, opisującą zmiany stanów w czasie.
Powstaje pytanie: w jaki sposób koncepcja ta jest realizowana w systemach przetwarzania informacji i jakiego rodzaju są to systemy?
Otóż autorzy przyznają się do związków zarówno z klasycznymi
systemami produkcji (production systems),9 jak i modelami koneksjonistycznymi. W pierwszym, wstępnym rozdziale omawianej pracy znajdujemy pewne podstawowe zasady, leżące u podstaw zarówno implementacji komputerowych, jak i analiz jakościowych badanych przez nich
zjawisk.
Wiedza reprezentowana jest przez prawa warunkowe o postaci warunek–akcja (condition–action rules). Działanie tych praw polega na generowaniu tzw. wiadomości dla całego systemu.
Prawa mogą reprezentować zarówno zależności synchroniczne, związane z kategoriami obiektów, jak i diachroniczne, wyrażające przewidywania na temat zachowania się obiektów. Oba typy praw współdziałają
przy rozwiązywaniu problemów.
System posiada mechanizmy indukcyjne, dzięki którym prawa mogą
się łączyć w większe struktury, tzw. klastry. Tworzą one domyślne hierarchie oraz wyposażone są w prawa mające za zadanie „radzić” sobie z
wyjątkowymi sytuacjami bez modyfikowania całej reszty domyślnej
struktury.
Prawa, których poprzedniki są spełnione przez aktywne w danej
chwili wiadomości, konkurują ze sobą o reprezentowanie bieżącej sytuacji oraz wpływ na działanie systemu. Mogą one być uruchamiane rów_____________
9 Jest to ogólny schemat, zaproponowany przez Newella i Simona (1972), szczególnie
przydatny przy konstrukcji systemów modelujących ludzkie procesy poznawcze, tak
eksperckich, jak i dokonujących odkryć naukowych.
15
nolegle do siebie i udzielać sobie nawzajem wsparcia, determinując w
ten sposób zachowanie się systemu.
Rozumowanie indukcyjne znajduje w systemie zastosowanie przy
modyfikacji istniejących praw oraz generowaniu nowych. Mechanizmy
generujące nowe prawa podlegają ścisłym ograniczeniom tak, aby prawa
te okazały się przydatne dla systemu. Procedury indukcyjne posługują
się wiedzą na temat obiektów i zdarzeń oraz sposobu, w jaki się one
zmieniają.
Tak więc ogólna zasada działania systemu bliska jest standardowym
systemom produkcji, a więc zasadza się na cyklicznym dopasowywaniu
do wzorca oraz uruchamianiu praw o postaci warunek–akcja. Zasadnicza różnica polega jednak na tym, że w standardowych systemach produkcji w danym cyklu uruchamiane jest tylko jedno prawo, a w modelu
HHNT równolegle może być uruchomionych wiele praw, których warunki spełnione są przez wiadomości aktywne w systemie. Prawa te
mają różny stopień „wsparcia” ze strony środowiska bądź innych aktywnych w danym cyklu praw, a ogłaszane przez nie wiadomości mają
wpływ na szanse uruchomienia innych praw w kolejnym cyklu. Taki
sposób działania systemu daje mu znacznie większe szanse efektywnego
działania w realnych sytuacjach, gdy wiedza o środowisku jest z reguły
niekompletna lub nie do końca uświadomiona.
Większość opisanych mechanizmów znajduje zastosowanie w działaniu stworzonego przez autorów systemu komputerowego PI (Processes of
Inference), implementowanego w języku LISP. Autorzy nie ograniczają
się jednak w swych symulacjach komputerowych opisanego modelu
mentalnego do prostych problemów z życia codziennego człowieka czy
innych organizmów. W rozdziale poświęconym odkryciu naukowemu
stosują oni swój model do tego, jak piszą, „największego indukcyjnego
osiągnięcia człowieka” (s. 320).
Otóż HHNT rekonstruują strukturę wiedzy naukowej w następujący
sposób: prawa nauki (scientific laws) są formułami (rules) o charakterze
ogólnym, idee w nauce są pojęciami pozwalającymi łączyć prawa w
użyteczne większe całości, teorie natomiast stanowią kompleksy praw
funkcjonujących razem dzięki łączącym je pojęciom. Struktura ta znajduje odzwierciedlenie w proponowanym przez nich modelu mentalnym.
Przede wszystkim interpretują prawa nauki jako reguły czy prawa, na
których opiera się działanie systemu kognitywnego, teorie natomiast są
w ich ujęciu modelami mentalnymi, wyjaśnianie za ich pomocą jest po
prostu rozwiązywaniem problemów przez system.
16
Autorzy przyznają, że obecność w nauce terminów denotujących
obiekty nieobserwowalne stanowi problem dla badań nad odkryciem
naukowym, także tych posługujących się rekonstrukcją komputerową.
Powstaje bowiem pytanie: w jaki sposób naukowcy mogą sformułować
nową teorię i nowe pojęcia, skoro odwołują się one do obiektów, które,
przynajmniej na danym etapie rozwoju nauki, są niedostępne obserwacji,
i jak tę drogę zrekonstruować? Odpowiedź, jakiej udzielają z perspektywy swego stanowiska, jest następująca: „[…] analogia jest głównym
środkiem służącym konstrukcji teorii, a mechanizm kombinacji pojęciowej, podstawową metodą generowania pojęć teoretycznych” (s. 326). Jest
ona poparta jakościową analizą struktury, rozwoju i oceny teorii naukowych w ramach koncepcji modelu mentalnego10 oraz symulacją odkrycia
prostej teorii naukowej przy pomocy programu PI.
Autorzy opisują działanie systemu PI w zastosowaniu do odkrycia
falowej teorii dźwięku, które przypisują rzymskiemu architektowi Vitruviusovi. Badając i opisując zasady rozchodzenia się dźwięku w amfiteatrach, odwoływał się on do analogii z falami na wodzie, choć zdawał
sobie sprawę z istotnych różnic pomiędzy tymi dwoma rodzajami fal, na
przykład dźwięk rozchodził się w trzech kierunkach, a fale na wodzie w
dwóch. Autorzy twierdzą, że teoria falowa dźwięku posiadała istotne,
opisywane przez nich cechy teorii naukowych: unifikowała różne zaobserwowane zjawiska, takie jak rozchodzenie się i odbicie dźwięku, oraz
postulowała przedmioty nieobserwowalne – fale dźwiękowe. Oczywiście teoria miała początkowo charakter jakościowy i do odkrycia takiej
teorii ogranicza się opisana symulacja komputerowa. Co więcej, w opisanym przypadku system PI wykorzystuje jedynie rozumowanie abdukcyjne oraz kombinację pojęciową, nie posługuje się natomiast rozumowaniem przez analogię, tak mocno eksponowanym przez autorów jako
główna metoda konstrukcji nowych modeli teoretycznych w nauce.
Dalsze symulacje dokonane przy pomocy systemu PI opisuje Thagard
w znanej książce poświęconej komputerowej analizie rewolucji naukowych, Conceptual Revolutions (1992), w której opisuje też kolejny system,
ECHO (Explanatory Coherence by Harmony Organization). Zasadniczym
celem pracy jest pokazanie, że sformułowana przez autora teoria koherencji eksplanacyjnej, w skrócie TOC (Theory of Explanatory Coherence),
jest w stanie opisać zmiany w schemacie pojęciowym towarzyszące rewolucjom naukowym lepiej, niż czynią to podejścia tradycyjne. Konek_____________
10
Patrz ss. 326–339.
17
sjonistyczny program ECHO został zastosowany do wybranych przypadków rewolucji naukowych: rewolucji Lavoisiera w chemii, rewolucji
Darwina, teorii Wegenera na temat ruchu kontynentów w geologii oraz
rozstrzygnięcia sporu pomiędzy teoriami Kopernika i Ptolemeusza, a
także Newtona i Kartezjusza w fizyce. Te wartościowe, rzec można pionierskie, dokonania nie dotyczą jednak komputerowego modelowania
odkryć naukowych. Wydaje się, że Thagard słusznie uznał na tym etapie
badań, że łatwiej jest eksplorować nowe, otwarte dziedziny, takie jak
ocena teorii i schematów pojęciowych, niż zmagać się z trudnymi problemami w zastosowaniu systemu PI do odkryć naukowych.
Jednocześnie Thagard wraz z innymi naukowcami, głównie współautorem pracy zbiorowej, Holland et al., psychologiem kognitywnym K.
Holyoakiem, podejmują badania nad komputerową symulacją rozumowania przez analogię, w więc dziedziną, której wagę dla odkryć teoretycznych w nauce mocno podkreślali autorzy tej pionierskiej pracy i która nie została ujęta w symulacjach komputerowych przy pomocy programu PI.
Pierwsze publikacje na ten temat to Holyoak i Thagard (1989) oraz
Thagard, Holyoak, Nelson i Gochfeld (1990). W pracy z 1989 roku autorzy postawili sobie za cel dokonanie ściślejszej niż dotychczas, formalnej
analizy rozumowania przez analogię oraz zbudowanie systemu, który
nazwali ACME (Analogical Constraint Mapping Engine), generującego
transfery analogiczne w oparciu o kryteria syntaktyczne, semantyczne i
pragmatyczne.
Autorzy stosują system do kilkunastu przypadków analogii, w tym
dwu z dziedziny nauk przyrodniczych, a dokładnie fizyki: analogii pomiędzy przepływem cieczy w naczyniach połączonych, wywołanym
różnicą ciśnień, a przepływem ciepła wywołanym różnicą temperatur
oraz pomiędzy ruchem planet wokół Słońca i ruchem elektronów wokół
jądra atomowego (1989, s. 333 n.). Jednocześnie wraz z innymi badaczami (Thagard, Holyoak, Nelson i Gochfeld, 1990) opracowują oni system
zwany ARCS (Analog Retreival by Constraint Satisfaction), którego zadanie
było w pewnym sensie komplementarne w stosunku do systemu ACME,
polegało bowiem na znajdowaniu (według trzech wspomnianych kryteriów) najbardziej odpowiednich źródeł analogii dla badanej sytuacji docelowej. Co więcej, w konkluzji do pracy Thagard et al. (1990) autorzy na
podstawie wstępnych testów stwierdzają, że analogie znalezione i częściowo opracowane przez system ARCS można wprowadzić na wejście
18
systemu ACME, co znacznie przyspiesza proces poszukiwania optymalnego odwzorowania.
Należy podkreślić, że pomimo wielu istotnych osiągnięć na polu badań nad funkcjonowaniem analogii tak w laboratorium psychologicznym, jak i w symulacjach komputerowych dokonanych przy pomocy
zaawansowanych systemów koneksjonistycznych, osiągnięcia w dziedzinie automatyzacji odkryć naukowych są raczej skromne. Sami autorzy otwarcie przyznają w podsumowaniach do przytoczonych artykułów, że opisane symulacje dwu analogii z dziedziny fizyki dotyczą tzw.
fizyki jakościowej11 i testowane systemy nie pozwalają na sformułowanie
nawet praw empirycznych o charakterze ilościowym, a cóż dopiero całych teorii naukowych. Ponadto badane przez autorów problemy analogii pomiędzy przepływem cieczy a przepływem ciepła oraz ruchem planet i ruchem elektronów w atomie trudno zakwalifikować jako odkrycia
naukowe. Niemniej jednak trzeba podkreślić, że ze względu na stopień
ważności i trudności problemu „pierwsze kroki” w dziedzinie symulacji
komputerowej rozumowań przez analogię w nauce zostały zdecydowanie poczynione.
Paul Thagard w artykule przeglądowym Computation and the Philosophy of Science (1998) podsumowuje osiągnięcia w dziedzinie komputerowej filozofii nauki, włączając w to rezultaty badań nad odkryciami
naukowymi od czasów publikacji jego książki pod tym właśnie tytułem
(Thagard, 1988), oraz wskazuje niedostatki i pewne otwarte problemy,
które mogą i powinny stać się przedmiotem dalszych badań i symulacji
komputerowych. Wśród tych ostatnich wymienia rolę wyobraźni wizualnej
w rozwoju wiedzy naukowej, a w szczególności wielokrotnie opisywaną
przez historyków nauki i psychologów rolę analogii o charakterze raczej
obrazowym niż werbalnym, w dokonywaniu odkryć i formułowaniu
teorii naukowych.
Wydaje się, że ta ostatnia grupa zagadnień stała się od pewnego czasu
przedmiotem zainteresowań samego Thagarda. Krok w tym kierunku
stanowi system DIVA (Dynamic Imagery for Visual Analogy), opracowany
przy współpracy specjalistów w dziedzinie animowanej, trójwymiarowej
grafiki komputerowej (Croft i Thagard, 2002). Jest on swoistym połączeniem modelu systemu kognitywnego w duchu tradycji HHNT, opartego
na koneksjonistycznym algorytmie sieci semantycznej, i algorytmu ana_____________
11 Więcej o reprezentacji procesów, stanów i obiektów w ramach koncepcji fizyki jakościowej piszę w pracy Giza, 2006, rozdz. 1.
19
lizy sceny czy świata graficznego, posługującego się tzw. techniką grafów scenicznych. System jest w stanie analizować cechy i wzajemne relacje „obiektów” w spoczynku i w ruchu, a także, podobnie jak wcześniejsze systemy SME i ACME, konstruować analogie pomiędzy nimi.
Rzecz jasna, w obecnej formie system posiada wiele ograniczeń, które
sprawiają, że nie można go zastosować do badań nad „eksperymentami
myślowymi” czy analogiami obrazowymi, którymi posługują się naukowcy. Nie ma on kontaktu z realnym światem, lecz otrzymuje na wejściu specjalnie spreparowane dane w przyjętym w sieci Internet formacie
reprezentacji modeli trójwymiarowych VRML. Co więcej, nie dysponuje
wiedzą o tym, w jaki sposób obiekty na scenie graficznej oddziałują na
siebie fizycznie, nie ma też wbudowanych mechanizmów wnioskowania
pozwalających mu rozwiązywać tego typu problemy (Croft i Thagard,
2002, ss. 39–40). Niemniej jednak podobnie jak w przypadku modelowania analogii, tak i w trudnej dziedzinie analizy roli wyobraźni wizualnej
w odkryciu naukowym wydaje mi się, że „pierwsze kroki” zostały już
poczynione, choć jest to dopiero początek długiej drogi.
Argumenty krytyczne
Dokonania programu HHNT na polu odkrycia naukowego spotkały
się z entuzjastyczną oceną ze strony wspomnianego już M. Alai (2004),
który dostrzega w założeniach oraz potencjale intelektualnym tego programu istotną wyższość w porównaniu z grupą Simona i tradycją Turinga.
Tymczasem pomiędzy teoretycznym modelem HHNT sformułowanym w 1986 roku a jego praktycznymi realizacjami przy pomocy systemu PI, szczególnie w dziedzinie odkryć naukowych, istnieje tak ogromna przepaść, iż trudno oprzeć się wrażeniu, że tego rodzaju entuzjastyczne oceny osiągnięć programu HHNT w dziedzinie odkryć naukowych, są chybione.
Dokonana przeze mnie próba analizy komputerowych implementacji
idei HHNT w dziedzinie odkrycia naukowego (czy, ogólniej, komputerowej filozofii nauki) od czasów publikacji pracy zbiorowej Holland et
al., aż do najnowszych osiągnięć badaczy tej grupy miała na celu pokazanie, w jakim stopniu i w jakich dziedzinach badań przepaść ta została
wypełniona.
Otóż, jak sam Thagard wielokrotnie przyznaje, system, który nie jest
wyposażony w reprezentacje danych, mechanizmy wnioskowania i heu-
20
rystyki o charakterze ilościowym oraz nie dysponuje wystarczającym
zasobem wiedzy z danej dziedziny, nie jest w stanie odkryć nawet prawa
empirycznego, a cóż dopiero teorii naukowej posługującej się skomplikowaną aparaturą matematyczną i abstrakcyjnym modelem teoretycznym. Nic więc dziwnego, że „teorie naukowe” formułowane przez system, w rodzaju falowej „teorii” dźwięku, są z konieczności bardzo proste
i mają charakter jakościowy. Późniejsze prace nad ścisłym modelem, a
następnie symulacjami komputerowymi poszczególnych etapów rozumowania przez analogię, pomimo budzących respekt wysiłków, doprowadziły wprawdzie do powstania systemów znakomicie radzących sobie z prostymi problemami rodem z laboratorium psychologicznego, lecz
niestety ich sukcesy w dziedzinie odkryć naukowych są znikome. Podobnie ma się rzecz z opisanymi przeze mnie badaniami nad myśleniem
obrazowym i analogią wizualną. O ile bowiem w pierwszym przypadku
symulacje komputerowe ograniczają się do prostych problemów natury
jakościowej, o tyle w drugim badany przez systemy „świat” pozbawiony
jest na razie oddziaływań fizycznych pomiędzy obiektami.
Podsumowując moją ocenę osiągnięć grupy HHNT, chciałbym
stwierdzić, że przytoczone krytyczne uwagi nie mają bynajmniej na celu
zdyskredytowania tego programu badawczego. Owszem, to prawda, że
propozycje grupy HHNT są jak na razie konceptualne, bez spektakularnych praktycznych wyników. Jednak sama analiza procesu tworzenia i
modyfikacji wiedzy w oparciu o procedury indukcyjne jest niezwykle
interesująca, uwzględnia bowiem jego nieliniowość oraz systemowość
wiedzy daleko wykraczającą poza logiczne związki między poszczególnymi twierdzeniami. Autorzy np. eksponują rolę analogii, myślenia obrazowego oraz kombinacji pojęciowej w konstruowaniu teorii oraz generowaniu nowych pojęć teoretycznych. To podejście, w którym teorie
traktowane są jako „modele mentalne”, umożliwia podjęcie próby rekonstrukcji odkryć naukowych o charakterze teoretycznym, czego nie
były w stanie zrobić systemy tworzone przez wcześniej omawiane grupy
badaczy.
5 Konkluzje
Jaka więc odpowiedź na postawione w tytule pytanie, czy możliwa
jest automatyzacja odkrycia naukowego, wyłania się z krytycznej analizy
osiągnięć i niedostatków komputerowych systemów odkryć? Funkcjonujące systemy, zdolne do dokonywania odkryć naukowych, miały sta-
21
nowić konstruktywny dowód twierdzenia głoszącego, że istnieje „logika” odkrycia. Jednakże moc dowodowa tego argumentu zależy w decydujący sposób od tego, co rozumiemy przez dokonywanie odkryć naukowych i w jakim stopniu wdrożone dotychczas systemy odkryć wywiązują się z tego zadania.
Tymczasem poprzednie trzy sekcje, traktujące o głównych tradycjach
badawczych w tej dziedzinie, zawierają konkluzje zdające się wskazywać, że każdy z tych programów badawczych zakończył się, przynajmniej jak dotąd, fiaskiem, a programu racjonalnej rekonstrukcji odkryć nie
udało się dotychczas w całości zrealizować,
Pomimo mocnej „podbudowy ideologicznej”, zainwestowania znacznych środków i potężnego potencjału intelektualnego, program racjonalnej rekonstrukcji odkryć naukowych wysunięty przez grupę skupioną
wokół H. Simona napotkał poważne trudności i spotkał się z krytyką w
związku z niemożnością rekonstrukcji wielu istotnych aspektów odkrycia naukowego i w konsekwencji, brakiem jakichkolwiek nowych odkryć.
Badacze z kręgu tradycji Turinga mogą się wprawdzie pochwalić
systemami, które na drodze indukcyjnej odkrywają całkowicie nowe
prawa, lecz są to raczej regularności empiryczne o bardzo wąskim zakresie zastosowań, niż prawa ogólne o charakterze przyczynowym, opisujące określone dziedziny zjawisk.
Ambitny program grupy HHNT, mający z założenia doprowadzić do
komputerowej symulacji odkryć teoretycznych, nie został dotąd zrealizowany, przy czym cel ten, postawiony ponad 20 lat temu, wydaje się
nadal dość odległy.
Nie koniec na tym. Istnieją przesłanki pozwalające zaprzeczać, jakoby
jakiekolwiek systemy AI mogły być w ogóle zdolne do dokonywania odkryć naukowych. Na przykład M. Czarnocka (2003) przytacza trzy warunki, które, jak twierdzi, muszą być spełnione, aby można było mówić o
odkryciu naukowym i dochodzi do wniosku, że systemy sztucznej inteligencji nie są w stanie spełnić żadnego z nich. Cytuję za autorką:
Badam fundamentalne warunki odkrycia i możliwość ich realizowania przez sztuczne inteligencje. Warunki te są następujące. Po pierwsze
przyjmuję, że chociażby wstępna aprobata w nauce wymaga, aby zostało
ono zaprezentowane w obowiązujący sposób, a mianowicie, aby wyrażono je w języku semantycznie zinterpretowanym, wyposażonym w
sensy. Po drugie, zakładam, że odkrycie musi być odkryciem czegoś,
jakiegoś obiektu – prawa przyrody, przedmiotu jednostkowego określo-
22
nego typu, zjawiska danego rodzaju. Zatem odkrycie musi mieć przedmiot, który koniecznie należy skonceptualizować, przedstawić za pomocą naukowych pojęć. Po trzecie zaś przyjmuję, że odkrycie wnosi coś
nowego do dziedziny poznania. Nie redukuje się do wiedzy zastanej. Te
trzy założenia nie są kwestionowane ani nawet dyskutowane. Uznaje się
je – jak można wnosić – za pewniki, stanowiące fundament badań nad
odkryciem (s. 120).
Otóż „sztuczne inteligencje nie spełniają żadnego z tych trzech elementarnych, koniecznych warunków odkryć naukowych. Nie są zatem
zdolne do zastąpienia ludzkiego podmiotu poznania w odkrywaniu nowych tajemnic rzeczywistości” – argumentuje dalej Czarnocka (s. 120).
Można kwestionować lub osłabić niektóre z zarzutów autorki. Opierają się one bowiem na analizie systemów grupy Simona, nie uwzględniając osiągnięć pozostałych dwóch programów badawczych. Przede
wszystkim systemy tradycji Turinga stosują metodę indukcyjną przy
formułowaniu nowych praw, a w systemach grupy HHNT indukcja
znajduje się na centralnym miejscu jako metoda uzyskiwania nowej wiedzy. Można poza tym dyskutować, na przykład w świetle badań J. Żytkowa (1995/96), czy systemy odkryć są rzeczywiście w takim stopniu
pozbawione kontaktu z doświadczeniem, jak twierdzi autorka.
Jednakże, nawet jeśli przyjmiemy konkluzje autorki bez jakichkolwiek
zastrzeżeń, to nie dyskredytują one roli systemów odkryć w procesie
poszukiwania racjonalnej rekonstrukcji odkrycia naukowego.
Można bowiem na dyskutowane kwestie spojrzeć w inny sposób.
Dlaczego mamy sądzić, że tylko systemy na tyle doskonałe, by mogły
zastąpić człowieka–badacza we wszystkich przejawach twórczej działalności prowadzącej do odkryć naukowych, począwszy od obserwacji
przyrody i dostrzegania interesujących, ważnych zjawisk i problemów,
poprzez konstruowanie aparatury eksperymentalnej i dokonywanie eksperymentów, aż po tworzenie fundamentalnych, abstrakcyjnych teorii,
mogą stanowić dowód istnienia „logiki odkrycia naukowego”? Może nie
istnieje ta jedyna „logika odkrycia”, wszak Herbert Simon mocno podkreślał, że nie istnieje nic takiego jak „prawdziwa istota” czy „esencja”
odkrycia naukowego, lecz wiele procedur, które mogą prowadzić do
zdobywania nowej wiedzy. Już samo określenie i pojęciowa artykulacja
tych procedur, konieczna do budowy systemów odkryć wszystkich
trzech omawianych tradycji, stanowi duży sukces poznawczy.
Grupa Simona dokonała wielu ciekawych rekonstrukcji odkryć, pokazując, że proces odkrycia naukowego można rozbić na wiele prostych
23
etapów poddających się, przynajmniej częściowo, racjonalnej analizie.
Sukcesy praktyczne systemów wywodzących się z tradycji Turinga zdają
się wskazywać, że indukcja w duchu Bacona i Milla staje się pełnoprawną metodą uzyskiwania wiedzy, choćby nawet o bardzo skromnym, empirycznym charakterze. Grupa HHNT, pomimo braku spektakularnych
sukcesów praktycznych, konsekwentnie jęła się niezmiernie trudnego
zadania, mogącego doprowadzić do rekonstrukcji odkryć o charakterze
teoretycznym i już udało jej się dokonać symulacji wielu istotnych procesów z nim związanych, takich jak analogia, kombinacja pojęciowa czy
myślenie obrazowe. Jeśli więc, z jednej strony, udało się pewne wybrane
aspekty i dziedziny odkrycia naukowego odrzeć z aury mistycyzmu i
tajemniczości i wyrazić w bardziej racjonalnych terminach, a z drugiej
położyć przynajmniej podwaliny pod taką racjonalną artykulację, to znaczy, że systemy odkryć stanowią lub wkrótce mogą stanowić konstruktywny dowód czy raczej wiele poszczególnych fragmentów dowodu
istnienia logiki odkrycia naukowego – dowodów wcześniej niedostępnych dla filozofów nauki.
Literatura
[1] Alai, M. (2004): AI, Scientific Discovery and Realism, Minds and Machines, 14, pp. 21–
42.
[2] Buchanan, B., Feigenbaum, E. (1978): DENDRAL and meta-DENDRAL: Their Applications Dimension, Artificial Intelligence, 11, pp. 5–24.
[3] Cartwright, N. (1983): How the Laws of Physics Lie, Oxford, Oxford Univ. Press.
[4] Croft, D., Thagard, P. (2002): Dynamic imagery: A Computational Model of Motion
and Visual Analogy, in: L. Magnani and N. Nersessian, (eds.), Model-based Reasoning:
Science, Technology, Values. New York, Kluwer/Plenum, pp. 259–274.
[5] Czarnocka, M. (2003): Sztuczna inteligencja a odkrycie naukowe, [w:] Krajewski, W.,
Strawiński, W. (red.), (2003), ss. 119–127.
[6] Fischer, P., Żytkow, J. (1990): Discovering Quarks and Hidden Structure, in: Z. Ras, M.
Zemankova, and M. L. Emrich, (eds.), Methodologies for Intelligent Systems, 5, New
York, Elsevier Science Publishing Co., pp. 362–370.
[7] Gillies, D. (1992): Comments on “Scientific Discovery as Problem Solving” by Herbert
A. Simon, International Studies in the Philosophy of Science, 6, pp. 29–32.
[8] Gillies, D. (1996): Artificial Intelligence and Scientific Method, New York, Oxford Univ.
Press.
[9] Giza, P. (2006): Filozoficzne i metodologiczne aspekty komputerowych systemów odkryć naukowych, Lublin, Wyd. UMCS.
[10] Holland, J., Holyoak, K., Nisbett, R., Thagard, P. (1986): Induction: Processes of Inference, Learning, and Discovery, Cambridge, MIT Press.
[11] Holyoak, K., Thagard, P. (1989): Analogical Mapping by Constraint Satisfaction,
Cognitive Science, 13, pp. 295–355.
24
[12] Holyoak, K., Thagard, P. (1995): Mental Leaps: Analogy in Creative Thought. Cambridge, MIT Press.
[13] Holyoak, K., Thagard, P. (1997): The Analogical Mind, American Psychologist, 52, pp.
35–44.
[14] Krajewski, W., Strawiński, W. (red.), (2003): Odkrycie naukowe i inne zagadnienia współczesnej filozofii nauki, Warszawa, Wyd. Semper.
[15] Kulkarni, D., Simon, H. (1988): The Processes of Scientific Discovery: The Strategy of
Experimentation, Cognitive Science, 12, pp. 139–175.
[16] Langley, P., Simon, H., Bradshaw, G., Żytkow, J. (1987): Scientific Discovery: Computational Explorations of the Creative Processes, Cambridge, The MIT Press.
[17] Michalski, R. S., Chilautsky, R. L. (1980): Learning by Being Told and Learning from
Examples: An Experimental Comparison of the Two Models of Knowledge Acquisition in the Context of Developing an Expoert System for Soybean Disease Diagnosis,
Journal of Policy Analysis and Information Systems, 4, pp. 125-161.
[18] Muggleton, S., Feng, C. (1992): Efficient Induction of Logic Programs, in: S. Muggleton, (ed.), Inductive Logic Programming, London, Academic Press, pp. 281–298.
[19] Muggleton, S., King, R., Sternberg, M. (1992): Protein Secondary Structure Prediction
using Logic-Based Machine Learning, Protein Engineering, 5/7, pp. 647–57
[20] Newell, A., Simon, H. (1972): Human Problem Solving, New York, Prentice Hall.
[21] Quinlan, J. R. (1979): Discovering Rules by Induction from Large Collections of
Examples, in: D. Michie, (ed.), Expert Systems in the Microelectronic Age, Edinburgh,
Edinburgh Univ. Press, pp. 168–201.
[22] Quinlan, J. R. (1986): Induction of Decision Trees, Machine Learning, 1, pp. 81–106.
[23] Simon, H. (1979): Models of Thought, New Haven, Yale Univ. Press.
[24] Simon, H. (1992a): Scientific Discovery and Problem Solving, International Studies in
the Philosophy of Science, 6, pp. 1–14.
[25] Simon, H. (1992b): Reply to Critics, International Studies in the Philosophy of Science, 6,
pp. 69–88.
[26] Thagard, P. (1988): Computational Philosophy of Science, Cambridge, MIT Press.
[27] Thagard, P. (1992): Conceptual Revolutions, Princeton, Princeton Univ. Press.
[28] Thagard, P. (1996): Mind: Introduction to Cognitive Science, Cambridge, MIT Press.
[29] Thagard, P. (1998): Computation and the Philosophy of Science, in: T. Ward and J.
Moor, (eds.), How Computers are Changing Philosophy, New York, Blackwell, pp. 48–61.
[30] Thagard, P., Holyoak, K., Nelson, G., Gochfeld, D. (1990): Analog Retrieval by Constraint Satisfaction, Artificial Intelligence, 46, pp. 259–310.
[31] Żytkow, J. (1987): Combining Many Searches in the FAHRENHEIT Discovery System, Proceedings of the Fourth International Workshop on Machine Learning, Irvine, CA,
pp. 281–287.
[32] Żytkow, J. (1990): Deriving Laws Through Analysis of Processes and Equations, in: J.
Shrager and P. Langley, (eds.), Computational Models of Scientific Discovery and Theory
Formation, San Mateo, CA, Morgan Kaufmann, pp. 129–156.
[33] Żytkow, J. (1993): Automatyzacja odkrycia naukowego, Filozofia Nauki, 4, ss. 37–54.
[34] Żytkow, J. (1995/96): Creating a Discoverer: Autonomous Knowledge Seeking
Agent, Foundatins of Science, 2, pp. 253–283.
25

Podobne dokumenty