Kraków, 16 listopada 2006 r

Transkrypt

Kraków, 16 listopada 2006 r
Protokół z Posiedzenia Rady Naukowej
Wydziału Informatyki, Elektroniki i Telekomunikacji
Akademii Górniczo-Hutniczej im. Stanisława Staszica w Krakowie,
które odbyło się w dniu 5. grudnia 2013 r.
Kolokwium habilitacyjne dr. inż. Aleksandra Byrskiego
Obrady otworzył o godzinie 10:00 Dziekan Wydziału Prof. Tadeusz Pisarkiewicz.
Stwierdził ważność posiedzenia - na 38 uprawnionych do głosowania członków Rady
Naukowej przybyło 28 osób, co stanowiło 74%, a więc niezbędne dla podejmowania
prawomocnych uchwał kworum. Następnie powitał recenzentów, dr. hab. inż. Romana Galara
(Politechnika Wrocławska), dr. hab. inż. Jarosława Arabasa (Politechnika Warszawska), prof.
dr. hab. inż. Franciszka Seredyńskiego (Uniwersytet im. Kardynała Stefana Wyszyńskiego) i
prof. dr. hab. inż. Witolda Dzwinela (AGH w Krakowie), wszystkich przybyłych członków
Rady Wydziału i przystępującego do kolokwium habilitacyjnego dr. inż. Aleksandra
Byrskiego.
Dziekan krótko przypomniał historię przewodu habilitacyjnego wszczętego 10. kwietnia
2013 r na wniosek zainteresowanego. Przedstawił również skład zespołu do przeprowadzania
czynności w przewodzie habilitacyjnym dr Byrskiego. Zespół ten powołała Rada Wydziału
Informatyki Elektroniki i Telekomunikacji AGH na posiedzeniu w dniu 25. kwietnia 2013 r
(nr 59/st/2013). Zespołowi przewodniczył prof. Krzysztof Zieliński, a w skład zespołu weszli
prof. dr hab. inż. Jacek Kitowski, prof. dr hab. inż. Robert Schaefer, prof. dr hab. inż. Tomasz
Zieliński i dr hab. inż. Grzegorz Dobrowolski, prof. AGH.
Zespół po zapoznaniu się z przedłożoną monografią oraz pozostałymi dokumentami
złożonymi przez Habilitanta zarekomendował Radzie otwarcie przewodu habilitacyjnego. Na
posiedzeniu w dn. 23. maja 2013 r. w głosowaniu tajnym rada podjęła uchwałę (nr
69/st/2013) wyrażającą zgodę na wszczęcie przewodu i powołała dwóch recenzentów: prof.
dr. hab. inż. Franciszka Seredyńskiego i prof. dr. hab. inż. Witolda Dzwinela.
Komplet dokumentów został przesłany do Centralnej Komisji ds. Stopni Naukowych i
Tytułu Naukowego. CK pismem datowanym 7. czerwca 2013 zatwierdziła obu recenzentów
proponowanych przez Radę WIET oraz powołała dwóch dodatkowych recenzentów w
osobach dr. hab. inż. Romana Galara i dr. hab. inż. Jarosława Arabasa.
W następstwie otrzymania czterech pozytywnych recenzji zespół wnioskował do Rady o
dopuszczenie Habilitanta do kolokwium. Rada Wydziału na posiedzeniu w dniu 24.
października 2013 (uchwałą nr 126/st/2013) dopuściła dr. inż. Aleksandra Byrskiego do
kolokwium habilitacyjnego. Datę kolokwium wyznaczono na 5. grudnia 2013.
Dziekan następnie poprosił Habilitanta o zwięzłe przedstawienie przedłożonej monografii
habilitacyjnej pt.
„Agent-based Metaheuristics in Search and Optimisation”
wydanej przez Wydawnictwa AGH w serii Rozprawy i Monografie (nr 268) w 2013 r.
Habilitant rozpoczął od uzasadnienia zastosowania metaheurystyk do rozwiązywania
problemów istotnie trudnych oraz zwrócił uwagę na trudności w analizie formalnej
tworzonych rozwiązań. Istotnymi problemami zidentyfikowanymi przez Habilitanta było
2
zapewnienie gwarancji znalezienia rozwiązania przy pomocy tak złożonych metod, oraz
oszacowanie kosztu (np. czasowego) znalezienia rozwiązania. Habilitant stwierdził, że
odpowiedzi na te pytania może dostarczyć konstrukcja i analiza dedykowanych formalizmów.
Habilitant powiedział, iż jego praca badawcza koncentruje się wokół metaheurystyki
agentowej EMAS (Ewolucyjny System Wieloagentowy - Evolutionary Multi-agent System,
K. Cetnarowicz et al. 1996), oraz wariantu immunologicznego tej metaheurystyki immunological EMAS (iEMAS), którego Habilitant jest autorem. Zwrócił uwagę na brak
dedykowanych modeli dla obliczeniowych systemów agentowych, memetycznych czy też
kulturowych.
Następnie Habilitant określił cele swojej pracy badawczej jako:
 opracowanie precyzyjnych modeli formalnych EMAS (oraz iEMAS) bazujących na
wykorzystaniu łańcuchów Markowa,
 wykorzystanie skonstruowanych modeli do przeprowadzenia analizy formalnej
ukierunkowanej na dowodzenie własności asymptotycznych obliczeń prowadzonych przy
pomocy tych systemów,
 przeprowadzenie badań eksperymentalnych EMAS (oraz iEMAS), dotyczących cech
rozważanych systemów oraz możliwości zastosowania ich do konkretnych problemów
rzeczywistych.
Habilitant zaprezentował przegląd stanu wiedzy dotyczący metaheurystyk. Zwracając
uwagę na potrzebę sankcjonowania wykorzystywania metaheurystyk za pomocą
dedykowanych formalizmów, Habilitant przypomniał najważniejsze z prac formalnych w
dziedzinie. Następnie Habilitant przeszedł do prezentacji metaheurystyki agentowej EMAS,
która jest przedmiotem jego badań. Tak określona koncepcja systemu wymagała opracowania
dedykowanego modelu formalnego, przygotowanego w oparciu o teorię łańcuchów Markowa,
którego elementy zostały również zaprezentowane przez Habilitanta. Bazując na
skonstruowanym formalizmie, Habilitant podał twierdzenie o ergodyczności łańcucha
Markowa modelującego EMAS, a następnie przedstawił strategię przeprowadzania dowodu
sformułowanego twierdzenia i płynące z niego wnioski.
Habilitant stwierdził, że
skonstruowany formalizm posiada potwierdzoną skuteczność, gdyż albo w całości, albo
w części został już ponownie użyty do modelowania kilku wybranych metaheurystyk.
Następnie Habilitant przedstawił wybrane wyniki badań eksperymentalnych dotyczących
zarówno badania efektywności działania obliczeń agentowych przy użyciu funkcji
benchmarkowych jak i wybranych problemów rzeczywistych.
Na końcu dwudziestominutowej prezentacji Habilitant podsumował osiągnięte wyniki i
zaprezentował wnioski płynące z przeprowadzonych badań formalnych i eksperymentalnych.
Po zakończeniu prezentacji habilitacyjnej, Dziekan poprosił Recenzentów o odczytanie
recenzji w części dotyczącej oceny monografii. Recenzenci w kolejności dr. hab. inż.
Jarosław Arabas, dr. hab. inż. Roman Galar, prof. dr. hab. inż. Franciszek Seredyński i prof.
dr. hab. inż. Witold Dzwinel odczytali stosowne fragmenty swoich recenzji. W konkluzji,
każdy z Recenzentów stwierdził, że rozprawa habilitacyjna dr. inż. Aleksandra Byrskiego
spełnia wymagania aktualnie obowiązującej ustawy.
Po odczytaniu recenzji Dziekan poprosił Habilitanta o udzielenie odpowiedzi na uwagi
Recenzentów. Ze względu na fakt, iż szereg uwag zgłoszonych przez Recenzentów
pokrywało się, Habilitant poprosił o możliwość uporządkowania pytań Recenzentów według
zagadnień i udzielanie odpowiedzi w takim porządku. Wszyscy Recenzenci wyrazili zgodę
na takie rozwiązanie.
3
Zagadnienie 1: Użyteczność stosowanego formalizmu
Uwaga Prof. dr. hab. inż. Witolda Dzwinela:
Pomimo iż Habilitant poradził sobie bardzo dobrze z problemami matematycznego zapisu
poszczególnych algorytmów i procedur, a także udowodnił podstawowe właściwości jakie
musi spełniać algorytm poszukiwania najlepszego rozwiązania (ergodyczność), wyraźnie
utknął w pół drogi, nie próbując na bazie teorii formułować uzasadnianych przez nią hipotez
badawczych. W tym sensie, stworzony zalążek opisu formalnego nie posiada wystarczającej
siły wnioskowania i z punktu widzenia zasad dobrej praktyki naukowej, jest mało użyteczny.
Uwaga Prof. dr. hab. inż. Franciszka Seredyńskiego:
Pewien niedosyt budzi brak widocznego związku między opracowanym modelem formalnym,
a częścią eksperymentalną pracy, innymi słowy nie jest widoczne bezpośrednie przełożenie,
np. zmian wartości pewnych parametrów na konkretne cechy modelu formalnego.
W odpowiedzi Habilitant zaznaczył, że formalizm dostarcza wyników jakościowych. Trudno
jest zaproponować model, który będzie jednocześnie dostarczał wyników ilościowych. Jeśli
chodzi o jego użyteczność, elementy tego formalizmu zostały już zastosowane do
modelowania innych heurystyk, takich jak HGS, równoległy algorytm ewolucyjny oraz
EMAS w przypadku optymalizacji niestacjonarnej.
Prof. Seredyński uznał, że odpowiedź jest wystarczająca.
Prof. Dzwinel także uznał, że odpowiedź jest wystarczająca, zwrócił jednak uwagę, że jeżeli
tworzy się jakiś model formalny, to powinien mieć on bezpośrednie przełożenie przynajmniej
na wnioski związane z budową dalszych heurystyk. Jeśli udowadnia się zbieżność danej
metody, można ją stosować dla dowolnych warunków początkowych, jeśli się udowadnia
zbieżność z jakimiś ograniczeniami, to nie można jej używać do rozwiązywania problemów
spoza tych ograniczeń. Brakuje dalszego elementu, jeżeli chodzi o analizę formalną, którym
byłoby udowodnienie zbieżności asymptotycznej danego rozwiązania. W pracy udowodniona
została zbieżność w sensie słabym, w sensie dystrybuanty.
Habilitant zgodził się z uwagą Prof. Dzwinela, jednak zwrócił uwagę na wyniki badań
własności asymptotycznych algorytmów ewolucyjnych otrzymywane w renomowanych
zespołach naukowców (np. prof Guntera Rudolpha), dla uzyskania których przyjęto bardzo
restrykcyjne ograniczenia odnośnie funkcji celu (np. założono wypukłość funkcji). Takich
założeń odnośnie funkcji przystosowania Habilitant nie przyjmował.
Odpowiedzi zostały przyjęte.
Zagadnienie 2: Problem z założeniami do dowodu ergodyczności
Uwaga Prof. dr. hab. inż. Witolda Dzwinela:
W części teoretycznej rozprawy brakuje szerszej dyskusji przyjętych założeń do dowodu
ergodyczności
algorytmów
EMAS
(i
iEMAS),
szczególnie
niezrozumiałych
dla czytelnika ograniczeń na ilość wykorzystywanej energii (pierwsze 4 założenia do
Twierdzenia 3.11). Jakie konsekwencje na ergodyczność algorytmu ma złamanie któregoś z
tych ograniczeń?. Założenie 6 oznacza, iż węzły, w których znajdują się agenty, tworzą klikę.
Wydaje mi się, że założenie to można by obejść, zakładając, że ergodyczny jest także system
4
złożony z dwóch węzłów. Zatem dowolne połączenie większej ilości takich samych systemów
nie łamie zasady ergodyczności.
W odpowiedzi Habilitant stwierdził, że cztery pierwsze założenia były związane z chęcią
zapewnienia własności systemu, która jest zwana bezpieczeństwem. Jeśli te założenia nie
będą spełnione, wtedy może dojść do jakiejś niepożądanej sytuacji, samego zaś dowodu w
tym momencie nie będzie można przeprowadzić. Chodziło o zabezpieczenie się przed
pewnymi szczególnymi przypadkami, które mogłyby zablokować przebieg dowodu np.
założenie drugie wskazuje, że musi istnieć możliwość stworzenia maksymalnej populacji,
a ponieważ agenty wymieniają się energią, jeśli nie będzie dostatecznej energii, nie uda się
stworzyć maksymalnej populacji. Jeśli chodzi o drugą uwagę na temat węzłów
i ergodyczności systemu złożonego z klik, to taki system także stanowiłby system
ergodyczny na mocy dowodu ergodyczności dla każdego osobnego grafu spójnego.
Odpowiedź została przyjęta.
Zagadnienie 3: Histogramy przystosowania i energii dla agentów w EMAS
Uwaga Prof. dr. hab. inż. Witolda Dzwinela:
Jak wygląda histogram wartości funkcji przystosowania (w poszczególnych krokach ewolucji
systemu) w porównaniu z podobnym histogramem energii dla agentów? Czy wprowadzenie
energii do algorytmu nie jest redundantne z wartościami przystosowania? W szczególności,
czy wysoki fitness mogą posiadać agenty o małej energii? Jeżeli nie, to jaką dodatkową
wartość dla algorytmu poszukiwania rozwiązania stanowi energia?
Habilitant odpowiedział, że te dwie wartości są niezależne, histogramy mogą się różnić.
W szczególności agenty o wysokiej energii mogą mieć przez pewien czas niską wartość
funkcji przystosowania, lub odwrotnie agenty o niskiej energii, powstałe jako efekt
reprodukcji, mogą mieć wysoką wartość funkcji przystosowania, a energię zaczną gromadzić
podczas spotkań. Habilitant zadeklarował możliwość zaprezentowania odpowiednich
histogramów.
Prof. Dzwinel odparł, że widział te histogramy, gdyż dr Byrski przesłał mu je wcześniej,
i widać, że są one skorelowane. Chodzi tu jeszcze o sposób zmiękczenia operatora selekcji.
W pracy Mahfoud i Goldberg 1994 lub 1995 taki efekt jest osiągany przez dodanie do
algorytmu genetycznego symulowanego wyżarzania. Dzięki temu operator selekcji jest
zmiękczony przez funkcję e T.
Odpowiedź została przyjęta.
Zagadnienie 4: Aspekt porównawczy
Uwaga Prof. dr. hab. inż. Witolda Dzwinela:
Implementacje algorytmów bazujących na środowisku EMAS porównywane są do
implementacji ewolucyjnych algorytmów optymalizacyjnych PEA (ang. Parallel Evolutionary
Algorithm), o których Autor pisze niewiele. Brak jest specyfikacji implementacji PEA i oceny
jej jakości w kontekście heurystyk stanowiących state_of_the_art w dziedzinie poszukiwań
najlepszego rozwiązania. Odnośniki literaturowe do tego modelu obliczeń są nieaktualne.
Wątpliwym jest, czy PEA to wystarczająco efektywne, szybkie i popularne narzędzie, które
stanowiłoby wystarczająco konkurencyjny system do porównań.
5
Uwaga Prof. dr. hab. inż. Witolda Dzwinela:
Praca habilitacyjna powinna mieć znacznie szerszy wydźwięk, w tym porównawczy.
Testowane środowisko EMAS, choć interesujące, nie jest powszechnie rozpoznawalne
w środowisku naukowym, dlatego bazujące na nim algorytmy powinny być porównywane
z algorytmami state_of_the_art w dziedzinie optymalizacji niedeterministycznej.
Uwaga Dr. hab. inż. Jarosława Arabasa:
W części eksperymentalnej Autor eksperymentalnie wykazuje wyższość EMAS nad PEA.
Z punktu widzenia analizy statystycznej wyników praca nie budzi zastrzeżeń. Mam jednak
wątpliwości, czy algorytm PEA nie pełni roli ,,partnera sparingowego''. Od roku 2005
odbywają się praktycznie coroczne konkursy optymalizacyjne organizowane przy dwóch
ważnych konferencjach z obszaru metaheurystyk: konkursy z serii CEC (przy konferencji
Congress on Evolutionary Computation) oraz z serii BBOB (przy konferencji GECCO). Na
potrzeby konkursu opracowano standaryzowane procedury testowania i funkcje testowe, co
pozwala na porównanie własnych wyników z uzyskiwanymi przez innych autorów, bez
narażania się na zarzut wyboru niewłaściwego algorytmu lub jego niedbałej parametryzacji.
Sądząc po wynikach EMAS, prezentowanych w rozprawie, udałoby się zapewne uzyskać
dobre rezultaty testów, jednak pozostaje to na razie w sferze przypuszczeń.
Habilitant odparł, że zgadza się z uwagami i że będzie się starał w przyszłości dobierać także
inne algorytmy do porównania, również benchmarki z konferencji, które były cytowane.
Przyczyną wyboru tego właśnie algorytmu było to, że wybrany algorytm ewolucyjny został
tak sparametryzowany, by był możliwie zbliżony do systemu EMAS, będąc jednocześnie
,,nieagentowym''. Tak więc porównywano dwa systemy, system agentowy z maksymalnie
zbliżonym systemem ewolucyjnym. Operatory krzyżowania, mutacji, inicjacji, memetyzacji
były wspólne, w algorytmie ewolucyjnym była zastosowana selekcja turniejowa, która jest
maksymalnie zbliżona do rozwiązania użytego w EMAS, czyli przekazywania energii
podczas spotkań.
Prof. Arabas odparł, że przyjmuje tę odpowiedź. Czytając rozprawę miał wrażenie, że jest ona
poświęcona systemowi wieloagentowemu jako przedmiotowi badań, a niekoniecznie jest
nastawiona na stworzenie najlepszego systemu optymalizującego nieznaną funkcję celu, bez
żadnych założeń co do jej charakteru. Przyjmując taką perspektywę, rzeczywiście użycie
algorytmu PEA w tym wariancie, jaki został przyjęty, jest dobrym wyborem.
Prof. Dzwinel także przyjął odpowiedź, uznał jednak, że część eksperymentalna jest
najsłabsza w całej pracy, gdyż zdecydowanie więcej czasu należało poświęcić na zbadanie
konkurencyjności innych podejść.
Odpowiedzi zostały przyjęte.
Zagadnienie 5: Brakuje uzasadnienia wyboru funkcji testowych
Uwaga Prof. dr. hab. inż. Witolda Dzwinela:
Brakuje uzasadnienia wyboru funkcji testowych. Standardy w tej dziedzinie wyznacza od
wielu lat konferencja IEEE Congress on Evolutionary Computation, a szczególnie
organizowane w jej ramach zawody na najlepszy algorytm optymalizacyjny (Competition on
Large Scale Global Optimization). Wybrane przez Habilitanta funkcje to głównie funkcje
addytywnie i multiplikatywnie separowalne (oprócz funkcji Rosenbrocka). Brakuje tak
6
ważnych klas funkcji testowych jak funkcje częściowo separowalne i - najtrudniejsza klasa funkcje nieseparowalne. Brakuje także przedstawiciela funkcji dyskretnych silnie
zwodniczych. Ważna do oceny jakości algorytmu jest też duża wymiarowość tych funkcji, ok.
1000, dla których to wymiarowości gwałtownie pogarsza się jakość heurystyk
wykorzystujących tzw. inteligencje grupową. Tymczasem, wykonywane przez Autora testy
dotyczą funkcji maksymalnie 100 wymiarowych, a głównym testem porównawczym jest łatwa
funkcja Rastrigina, a nie któraś z trudnych funkcji nieseparowalnych.
Habilitant odpowiedział, że skupiał się na problemach ciągłych, ale obecnie zaczął zmieniać
zainteresowania i koncentruje się bardziej na problemach dyskretnych, przechodząc do
bardziej złożonych problemów. W jednej z cytowanych prac, której Habilitant jest
współautorem, podjęto próbę optymalizacji funkcji 1000-wymiarowych, ale dla zachowania
spójności z innymi uzyskanymi wynikami eksperymentalnymi, takie wyniki nie zostały
zamieszczone w monografii, gdzie ograniczył się do wymiarowości 100 i 50.
Prof. Dzwinel odparł, że drugie pytanie w zasadzie dotyczyło tego, co było omawiane
wcześniej (było związane z częścią eksperymentalną pracy). Jego uwaga nie dotyczyła spraw
związanych z optymalizacją dyskretną, ale raczej użycia w eksperymentach funkcji ciągłych,
które posiadają wyizolowane minima (funkcje stogu siana, minima typu zwodniczego,
szerokie minima i wąskie minimum globalne, minima o długich dolinach). Prof. Dzwinel nie
koncentrował się w tym pytaniu na funkcjach dyskretnych, gdyż wie, że metodologia
Habilitanta było przystosowana do funkcji ciągłych. Prof. Dzwinel przyjął udzieloną
odpowiedź.
Dziekan skomentował, że jako niespecjalista dowiedział się, że 100 wymiarów to jest jednak
mało w niektórych dziedzinach, podczas gdy wydaje się intuicyjnie, że jest to dużo.
W odpowiedzi Habilitant odniósł się do rozwiązywanego problemu praktycznego (Step and
Flash Imprint Lithography), dla którego wystarczyło 27 wymiarów,
Odpowiedź została przyjęta.
Zagadnienie 6: Dlaczego iEMAS nie został zastosowany do problemu SFIL
Uwaga Prof. dr. hab. inż. Witolda Dzwinela:
Optymalizacja strategii gry Sudoku stanowi ważny problem testowy, lecz nie może być
traktowana jako przykład technologicznie ważnego zastosowania stworzonego narzędzia.
Bardziej interesujący jest wynik zastosowania paradygmatu EMAS w rozwiązywaniu
problemu odwrotnego związanego z asymilacją danych do modelu komputerowego pewnego
procesu technologicznego. Nasuwa się jednak pytanie, dlaczego Autor nie wykorzystał
paradygmatu iEMAS do zmniejszenia ilości symulacji i zwiększenia efektywności
poszukiwania rozwiązania, który stworzony był właśnie dla tego typu problemów,
charakteryzujących się bardzo czasochłonnym obliczaniem współczynnika przystosowania.
Habilitant odpowiedział, że wspomniane eksperymenty przeprowadzał już pod koniec
przygotowania monografii. Nie zdążył przeprowadzić eksperymentów o które pytano z kilku
względów, m.in. z powodu niestabilności pewnych elementów oprogramowania.
Odpowiednie badania planuje uruchomić wraz z prof. Paszyńskim za 2 miesiące,
wykorzystując m.in. nowe solvery oraz metody immunologiczne.
7
Odpowiedź została przyjęta.
Zagadnienie 7: Kompleksowość i eklektyczność metaheurystyk. Wątpliwości lekarzy
odnośnie skumulowanego działania różnych leków
Uwaga Dr. hab. inż. Romana Galara:
Proponowane systemy obliczeniowe mają charakter eklektyczny, stanowiąc agregaty różnych
operatorów obliczeniowych. Do takiego podejścia motywuje dążenie do zwiększenia
uniwersalności obliczeniowej. Przy rozważaniu walorów „kompleksowych metaheurystyk”
pojawiają się jednak wątpliwości, podobne do wątpliwości lekarzy, co do skumulowanego
działania na organizm kilku różnych leków.
W odpowiedzi Habilitant potwierdził, że zdaje sobie sprawę z tego problemu. Praca była
m.in. poświęcona temu, by udowodnić skuteczność takiej złożonej metody rozwiązywania
problemów dostarczając pewien formalizm oraz dowodząc asymptotycznej gwarancji
sukcesu, natomiast użyta metoda nie rozwiąże wszystkich problemów z
równą
efektywnością.
Prof. Galar wygłosił w odpowiedzi bardziej ogólną uwagę przywołując jeden z węzłowych
punktów rewolucji naukowo-technicznej, a następnie odniósł się do dziedziny badań, której
dotyczy habilitacja. Zwrócił uwagę, że od uzyskania rozwiązania problemu testowego
o wysokiej jakości ważniejsze jest zrozumienie dlaczego i w jakich warunkach dane
algorytmy działają. W algorytmach ewolucyjnych, najlepsze rozwiązanie w danej chwili
niekoniecznie wiedzie do jeszcze lepszych rozwiązań, istotnym pytaniem jest, jak dostać
rozwiązania lepsze niż obecne. Dlatego rozwiązania benchmarkowe w tej fazie rozwoju
dyscypliny mogą być szkodliwe. Obecnie powstaje bardzo dużo prac komplikujących
sytuację i badających te same problemy. Recenzent odniósł się następnie do użyteczności
zbieżności obliczeń wykazanych w pracy podkreślając, że Habilitant dowiódł umiejętności
konstrukcji formalizmów i operowania na nich, natomiast ma wątpliwości co do praktycznej
użyteczności metody, gdyż asymptotyka często może się sprawdzić dopiero po bardzo długim
czasie, a ważne są rozwiązania, które otrzymuje się stosunkowo szybko.
W tym momencie Prof. Dzwinel poprosił o głos, i stwierdził, że dyskutowana dziedzina jest
obecnie na tyle dojrzała, że można ją oceniać. Benchmarkowanie ma w tym wypadku bardzo
dużą użyteczność. Przy rozwiązywaniu różnych trudnych problemów i stwierdzaniu, jak
szybko dane metody przynoszą rozwiązania, można uzyskać informację o tych metodach.
Benchmarkowanie nie służy więc tylko do uzyskania czasu na danym komputerze, ale
umożliwia lepsze zrozumienie tego, jak działa metoda. Analiza formalna na temat tych metod
pozwala na uzyskanie nowej wiedzy na ich temat wtedy, gdy otwiera drogę do nowego typu
wnioskowania, do nowych wyzwań związanych z pojmowaniem rzeczy.
Odpowiedź została przyjęta.
8
Zagadnienie 8: Arbitralna spontaniczność pewnych elementów systemu np.
częstotliwości migracji.
Uwaga dr. hab. inż. Romana Galara:
Zwraca uwagę arbitralnie ograniczona spontaniczność np. migracji, podyktowana zapewne
chęcią uproszczenia synchronizacji algorytmów. Sądzę, że arbitralności tej można by się
wyzbyć wprowadzając odpowiednie reguły losowe, co uczyniłoby heurezę bardziej spójną.
Habilitant stwierdził, że po krótkiej analizie modelu pod kątem uwagi Recenzenta, doszedł do
wniosku, że nie wystąpiłaby konieczność dogłębnej modyfikacji samego modelu, nie
powinny również wystąpić żadne negatywne efekty odnośnie dowodu ergodyczności. Zmiana
częstotliwości migracji jest możliwa a sugestia zostanie wdrożona w przyszłych pracach.
Odpowiedź została przyjęta.
Po udzieleniu przez dr Byrskiego odpowiedzi na pytania i uwagi Recenzentów, rozpoczęto
kolejną część posiedzenia, w której każdy obecny mógł zadać pytanie Habilitantowi, do czego
zachęcił Dziekan.
Dr hab. inż. Przemysław Krehlik
Prof. Krehlik spytał o sformułowanie, że prawdopodobieństwo jest silnie dodatnie i jego
interpretację podnosząc kwestię, że prawdopodobieństwo jest zawsze dodatnie.
Habilitant odparł, że prawdopodobieństwo może być także równe 0, a zero nie jest liczbą
dodatnią. „Silnie dodatnie” należy rozumieć „większe niż zero”.
Odpowiedź została przyjęta.
Dr hab. inż. Jarosław Arabas
Prof. Arabas spytał o relację między algorytmem i jego realizacją w postaci programu oraz
ujęcie w tym kontekście dowodów zbieżności, a w szczególności tego dowodu, który został
zaprezentowany w pracy. Czy jeśli można udowodnić ergodyczność procesu Markowa dla
algorytmu realizującego pewien proces obliczeniowy, to wynika z tego w sposób
jednoznaczny, że ta sama cecha będzie spełniona w przypadku programu? Np. jeśli ma się do
czynienia z algorytmem ewolucyjnym używającym mutacji zgodnie z rozkładem Gaussa, to
rozkład Gaussa chociaż formalnie ma gęstość nie zanikającą do zera w całej dziedzinie, to w
praktyce nie daje się tego osiągnąć (ze względu na zaokrąglenia obecne w systemach liczb
zmiennopozycyjnych). Czy fakt ten nie psuje efektu nie tylko tego przedstawionego
twierdzenia, ale także twierdzenia, które przedstawił Rudolph w swoich pracach? Pojawia się
problem, że budowane teorie o algorytmach optymalizacyjnych nie znajdują przełożenia na
parametryzacje, które są używane w praktyce, albo nie mają przełożenia w mechanizmach
algorytmicznych, które są dodawane, by zapewnić ich dobre własności asymptotyczne.
Habilitant odparł, że gdyby skonstruował algorytm, który miałby struktury danych
przypominające stany zdefiniowane w modelu, oraz symulował odpowiednie operatory
krzyżowania i mutacji, to nie dałoby to wprawdzie pewności, ale można by było być
przekonanym dzięki zaprezentowanemu dowodowi, że uda się osiągnąć rozwiązanie. Na
9
temat poprawności programu napisano wiele prac. Habilitant przypomniał stwierdzenie Sir
Hoare'a o poprawności częściowej i pełnej programu, które określają odpowiednio, że
program umożliwia znalezienie poprawnego rozwiązania oraz daje gwarancję zatrzymania
się. Można tu wyróżnić dwa poziomy: teoretyczny oraz technologiczny. Prezentowany w
rozprawie formalizm nie gwarantuje niczego na 100% na poziomie technologicznym, tzn.
tego, czy program będzie poprawnie skonstruowany.
Prof. Arabas sprecyzował swoje wątpliwości, czy ograniczenia wynikające z numeryki nie
mają istotnego wpływu na wnioski wysnuwane z twierdzeń. Ma się tutaj do czynienia ze
skumulowanym efektem zmian, które zachodzą z bardzo małym, bliskim zera,
prawdopodobieństwem i rozpatrywane zjawiska opisywane w sposób teoretyczny dla
algorytmu mogą być trudne do odwzorowania w realnym programie.
Habilitant zgodził się z możliwością wystąpienia takich problemów. Podkreślił, że dlatego
najpierw pracował w zespole tworząc wersje ciągłe tych algorytmów, a potem przeszedł na
wersję dyskretną modelu, która jest bardziej zbliżona do poziomu technologicznego.
Odpowiedź została przyjęta.
Prof. dr hab. Tomasz Stobiecki
Prof. Stobiecki odniósł się do modułu Younga, który jest w prezentowanych eksperymentach
przenoszony na substancje biologiczne. Moduł Younga jest związany ze sprężystością, a
trudno przyjmować, że substancja biologiczna jest sprężysta, dlatego Habilitant został
poproszony o wyjaśnienie tego daleko idącego fizycznego przybliżenia.
Habilitant odpowiedział, że fotopolimery w zasadzie charakteryzują się jednym modułem
Younga, ale tutaj następuje zerwanie tzw. maski z fotopolimeru, który zastygł, i wtedy w
różnych miejscach odcisku wartości modułu Younga mogą być różne. Odcisk jest podzielony
na sześciany i badana jest wartość modułu Younga w różnych miejscach, żeby zidentyfikować
miejsca, gdzie był naderwany.
Dziekan skomentował, że jego zdaniem tę odpowiedź można uznać. Jeśli to jest struktura
utwardzona, to ma ona pewną sztywność, a wtedy moduł Younga ma sens.
Odpowiedź została przyjęta.
Dr hab. Maciej Paszyński (komentarz)
Prof. Paszyński jako uczestnik wzmiankowanych w poprzednim pytaniu badań i autor części
użytego oprogramowania wyjaśnił, że stosowany był model cząsteczkowy. Po pierwsze ten
polimer nie był substancją biologiczną, polimer był w stanie ciekłym, na skutek naświetlania
UV zaczynają się tworzyć łańcuchy polimerów, ten proces symulowano za pomocą metody
cząstek. Następnie fotopolimer został umieszczony w szablonie, podczas zrywania tego
szablonu mogą nastąpić uszkodzenia łańcuchów polimerów. Problemem było zasymulowanie
tego materiału, polimeru, przy użyciu metody ciągłej oraz modelu liniowej sprężystości ze
współczynnikiem rozszerzalności cieplnej, z tego względu, że łańcuchy polimeru w różnych
miejscach mogą być w różnym stopniu naderwane. Dlatego założono, że ten materiał może
mieć różne wartości modułu Younga, i dlatego przewidywano 27 modułów Younga na takiej
kostce. Problem odwrotny został tak zdefiniowany, iż dla zadanego kształtu, który
10
uzyskiwano symulacją metodą cząstek, chciano uzyskać podobny wynik modelu ciągłego, a
funkcja misfitu porównywała kształty.
Dr hab. inż. Krzysztof Cetnarowicz
Prof. Cetnarowicz odniósł się do grupy podejść do programowania, algorytmów bio-inspired,
czyli inspirowanych przyrodą. W prezentowanych pracach zastosowano kawałek procesu
immunologicznego do algorytmu ewolucyjnego, co jest złożeniem dwóch takich podejść.
Prof. Cetnarowicz zapytał, czy było to sztuczne dołożenie algorytmu wyjętego z algorytmu
immunologicznego, czy też istnieje znana analogia biologiczna.
Habilitant odparł, że w algorytmach immunologicznych istnieje wiązanie między paratopem i
epitopem, które charakteryzuje się tym, że po przekroczeniu pewnego poziomu
przystosowania, komórki immunologiczne się aktywują i usuwają intruzów. Habilitant
zastanawiał się, czy podobne rozwiązanie nie mogłoby być wprowadzone do metaheurystyki
autorstwa prof. Cetnarowicza, czyli mieć dedykowany zestaw komórek, który będzie usuwał
niedobre lub gorsze rozwiązania.
Prof. Cetnarowicz zapytał, czy znane są z kolei Habilitantowi procesy czysto biologiczne,
które wykorzystują w immunologii ewolucyjne zjawiska.
Habilitant podał przykład selekcji klonalnej w układzie immunologicznym kręgowców, która
przebiega podobnie. W tym przypadku nie stosuje się krzyżowania, zamiast tego
wykorzystuje się mutację i hipermutację.
Odpowiedź została przyjęta.
Prof. dr hab. inż. Andrzej Kos
Prof. Kos zapytał Habilitanta, czy rozwijane przez niego metody są lepsze, skuteczniejsze,
lub mniej czasochłonne od klasycznych algorytmów optymalizacji (z lat 70-tych, np. metody
ze skalarnym wskaźnikiem jakości, potem pojawiły się sieci neuronowe).
Zdaniem Habilitanta podstawowe zalety metod nad którymi pracuje, powtarzają podstawowe
zalety algorytmów ewolucyjnych, czyli możliwość osiągnięcia optimum globalnego bez
specjalnych dodatkowych założeń. Nie są to algorytmy optymalizacji lokalnej, ale globalnej.
Wychodząc z algorytmów ewolucyjnych uwzględniono paradygmat agentowy. Udaje się
powtórzyć a nawet wzmocnić niektóre zalety algorytmów ewolucyjnych, choćby dlatego, że
dzięki podejściu agentowemu może się zmniejszyć koszt obliczeniowy w EMAS i iEMAS.
Habilitant nie może porównać EMAS i iEMAS bezpośrednio do algorytmów wspomnianych
w pytaniu, ale może porównać te systemy oraz ich warianty do algorytmów ewolucyjnych,
które pod wielu względami są lepsze od wspomnianych na początku podejść.
Prof. Kos odniósł się do stwierdzenia Habilitanta, że jest on w stanie znaleźć optimum
globalne, podczas gdy często takie minimum może być trudne do znalezienia.
W szczególności dziedzina problemu może być nieznana lub nieskończona, a zatem problem
optymalizacji globalnej w ogólnym przypadku może nie mieć rozwiązania.
11
Habilitant sprecyzował, że nie może zagwarantować, iż znajdzie optimum globalne, ale ma
taką szansę, co jest potwierdzone przez wyniki badań formalnych. Nie można zagwarantować
znalezienia optimum globalnego w każdym przypadku, ale formalizm sugeruje, że taka
możliwość istnieje.
Odpowiedź została przyjęta.
Prof.dr hab. inż. Robert Schaefer (komentarz)
Prof. Schaefer poprosił o możliwość wygłoszenia komentarza. Wyjaśnił, że współpracuje z dr
Byrskim i miał udział w części jego badań, dlatego z wielkim zainteresowaniem wysłuchał
recenzji prac. Teoria i model markowowski jest raczej frameworkiem dla pewnej dużej grupy
algorytmów, stąd może wrażenie eklektyczności, o której mówił prof. Galar. Model
umożliwia użycie wszystkich lub niektórych elementów algorytmicznych z różną mocą.
Kluczową rolę odgrywają pewne rozkłady prawdopodobieństwa, co do których czyni się
zazwyczaj jedno założenie, że są one silnie większe od zera, ale profilują w zasadniczy
sposób jakąś instancję.
Drugą sprawą jest wyjaśnienie, dlaczego ten formalizm używa agentów. Inspiracją było
pojawienie się przed kilkunastu laty tzw. algorytmów memetycznych. Twórcy tego pomysłu,
grupa hiszpańska, prof. Cotta i prof. Moscato, sami uznali, że najlepszym sposobem
sformalizowania tego podejścia jest wprowadzenie abstrakcji agenta, czyli rozwiązania
mającego pewne indywidualne cechy, zamiast osobnika. Dr Byrski wprowadził energię jako
tę indywidualną cechę.
Trzecia sprawa -- tak naprawdę była mowa o dwóch rodzajach zbieżności. Pierwsza, to jest
zbieżność miar próbkowania, która została udowodniona dla tego typu algorytmu. Jest to
konsekwencja twierdzenia o ergodyczności, tzn. że układ ergodyczny ma miarę stacjonarną.
Daje to tylko asymptotyczną gwarancję sukcesu, że taki algorytm na pewno znajdzie
rozwiązanie, nie jest jednak wiadome jak szybko to nastąpi. Druga zbieżność, tzw. zbieżność
globalna być może najbardziej precyzyjnie została sformułowana przez prof. Rudolpha
w latach 90, określając ją jako osiągnięcie przez próbę losową lub przynajmniej jeden element
populacji odpowiednio głębokiego zbioru poziomicowego. Tego typu zbieżność nie była
analizowana przez Habilitanta, nie było to przedmiotem jego badań. Jeśli chcemy policzyć dla
danego zadania statystykę takiej zbieżności, np. wartość oczekiwaną liczby kroków, w takim
przypadku łańcuch markowowski będzie potrzebny do przeprowadzenia takich oszacowań.
Prof. Schaefer wspomniał, że prace tego typu prowadzone są głównie w grupie
prof. Rudolpha, podając przykład liczenia first hitting time dla modelu wyspowego, który był
zawarty w jednej z cytowanych przez Habilitanta prac (autorstwa prof. Rudolpha i dr
Sudholta). W pracy tej najpierw budowany jest model markowowski, a potem liczone jest w
oparciu o funkcję tranzycji prawdopodobieństwo trafienia w ten zbiór. Takie oszacowanie jest
bardzo proste dla najprostszego algorytmu Markowa.
12
Dr hab. inż. Wiesław Ludwin
Prof. Ludwin poprosił o omówienie sposobu opracowywania wyników i odniósł się do
zamieszczonych w pracy wykresów. Profesor zapytał o użycie takich wielkości jak średnie,
estymatory średnich, estymator niepewności średniej lub odchylenie standardowe.
Pytający podkreślił trudność w odbiorze prezentowanych zagadnień i zwrócił uwagę na
precyzję języka. Prof. Ludwin zauważył, że 1000 wymiarów przekracza wymagania stawiane
problemom technicznym.
Habilitant odparł, że wszystkie wyniki eksperymentalne zaprezentowane w monografii były
rezultatem działania dedykowanych systemów. Ze względu na niedeterminizm badanych
metod eksperymenty były powtarzane. Każdy zamieszczony w monografii eksperyment (za
wyjątkiem kilku) był powtarzany 30 razy, było wyliczane odchylenie standardowe, średnia
oraz w kilku miejscach były rysowane tak zwane wykresy „box and wiskers”, gdzie
zaznaczono medianę i kwartyle.
Na pytanie, czy były uwzględniane przedziały ufności, Habilitant potwierdził.
Odpowiedź została przyjęta.
Prof. dr hab. inż. Witold Dzwinel
Odnosząc się do kwestii 1000 wymiarów problemu, prof. Dzwinel zwrócił uwagę, że
przestrzenie fazowe są praktycznie nieskończenie wiele wymiarowe. Jeśli weźmiemy milion
cząstek, które oddziałują ze sobą, to można policzyć liczbę wymiarów dla optymalizacji takiej
przestrzeni fazowej. Tysiąc wymiarów nawet jeśli chodzi o analizę „big data” to jest niewiele.
Przykładowo mikromacierz ma 50000 genów. Przy rozpatrywaniu zagadnień uczenia
maszynowego dla „big data” uwzględnia się dziesiątki tysięcy wymiarów. Następnie padło
pytanie do Habilitanta: prośba o skomentowanie hipotezy ergodyczności i jej złamania.
Habilitant odparł, że w pracy jest mowa o ergodyczności modelu Markowa. Dla łańcucha
Markowa, czyli takiego procesu stochastycznego, w którym prawdopodobieństwo przejścia
do kolejnego stanu zależy tylko od poprzedniego stanu systemu, ergodyczność oznacza, że
każdy stan tego modelu może być osiągnięty. Dzięki temu, że istnieje możliwość
modelowania za pomocą tego typu aparatu obliczeń ewolucyjnych, już od czasu Michaela
Vose’a można być bliskim pewności, że algorytm genetyczny może osiągnąć każdy swój stan
przy odpowiednio zdefiniowanym modelu Markowa.
Prof. Dzwinel zwrócił uwagę, że jest to bardzo uogólniona definicja ergodyczności.
Ergodyczność wiąże się z układami dynamicznymi, z pewnymi średnimi wielkości
makroskopowych po czasie i mikrostanami, manifoldami w przestrzeni fazowej. Jeżeli
potraktujemy funkcję wielowymiarową jako manifold przestrzeni wielofazowej dla zadanej
energii E, to możemy rozumieć, że w przypadku ergodyczności każdy element powierzchni
tego manifoldu jest odwiedzany przez trajektorię zbudowaną na zasadzie łańcucha Markowa z
prawdopodobieństwem proporcjonalnym do właśnie tej powierzchni.
Generalnie, gdy chodzi o poszukiwanie minimum globalnego, należy się liczyć raczej ze
złamaniem zasady ergodyczności niż z jej utrzymaniem. Zasada ergodyczności musi być
zachowana, żeby algorytm mógł powiązać wszystkie elementy tej przestrzeni, natomiast sam
13
problem polega na udowodnieniu, że niektóre części tej przestrzeni, nieinteresujące nas
z punktu widzenia optymalizacji, nie będą odwiedzane. Generalnie, w przyszłości należy
dążyć do udowodnienia złamania tej zasady, kosztem udowodnienia lokowania się trajektorii
markowowskich w interesujących dziedzinach poszukiwania funkcji.
Habilitant odparł, że kwestię tę rozumie także jako problem zachowania równowagi między
eksploracją i eksploatacją. System nie powinien się koncentrować tylko na jednym z tych
aspektów, zachowując równowagę między nimi, możemy być przekonani, że uda się odnaleźć
ekstremum globalne.
Odpowiedź została przyjęta.
Prof. dr hab. inż. Robert Schaefer (komentarz)
Prof. Schaefer odniósł się do definicji ergodyczności. Jego zdaniem ergodyczność jest
związana z pojęciem stochastycznego układu dynamicznego, jakim jest prosty stacjonarny
łańcuch Markowa, w którym funkcja tranzycji nie zmienia się wraz z krokiem, w innym
przypadku trudno jest mówić o ergodyczności. Istnieje zasadnicza różnica między sposobem
definiowania tej własności dla przestrzeni stanów ciągłych i dyskretnych. Odnosząc się do
habilitacji, całe to postępowanie dowodowe i wnioski z niego płynące odnosiły się do
dyskretnego i skończonego zbioru stanów, gdzie efekt ergodyczności jest silniejszy. Można
osiągnąć każdy stan w skończonej licznie kroków. Ta silna ergodyczność jest równa
korespondencji stanów, czyli dokładnie temu, co zostało już powiedziane: przejście między
każdymi dwoma stanami jest możliwe w skończonej liczbie kroków z niezerowym
prawdopodobieństwem. To, o czym mówił profesor Dzwinel, być może raczej odnosi się do
sytuacji, gdy mamy nieskończoną przestrzeń stanów i wtedy tak mocny wniosek nie jest
możliwy. Warto odnieść się do definicji ergodyczności z monografii Borowkowa, gdzie
przestrzeń stanów dzielimy w dowolnym kroku łańcucha na dwie części. Aktualnie stan
łańcucha jest w jednej części i definicja mówi, że proces jest ergodyczny, jeśli w skończonej
liczbie kroków przejdziemy do tej drugiej części ze skończonym prawdopodobieństwem, przy
dowolnym podziale. To jest jednak istotna różnica.
Dr hab. inż. Bogdan Kwolek
Prof. Kwolek spytał Habilitanta, czy prowadził on też prace w zakresie optymalizacji
dynamicznej, a w szczególności, czy były też realizowane prace z podaniem dowodu dla tego
typu algorytmów optymalizacji.
Habilitant odparł, że nie koncentrował się na optymalizacji dynamicznej, ale udało mu się
przeprowadzić pewne badania w tej dziedzinie, w monografii odpowiednia praca jest
cytowana. Ponadto w monografii jest cytowana praca teoretyczna traktująca o udowodnieniu
ergodyczności w przypadku dynamicznym, taki dowód Habilitant przeprowadził wraz z prof.
Schaeferem i opublikował jako rozszerzenie istniejącego formalizmu. Badane systemy są
w stanie zmierzyć się z takimi problemami, zostało to również udowodnione
z punktu widzenia formalnego.
14
Odpowiedź została przyjęta.
Prof. dr hab. inż. Witold Dzwinel
Prof. Dzwinel poprosił Habilitanta o podanie różnic między podejściem agentowym, jakie jest
stosowane w rozprawie, a podejściem cząsteczkowym znajdowania optymalnego
rozwiązania, w którym zamiast agentów mamy cząsteczki, próbne rozwiązania, które
oddziałują ze sobą. Chodzi tutaj o algorytmy używane do znajdowania optimum układów
dynamicznych cząstek, oddziałujących ze sobą w polu opisanym przez daną funkcję.
W swojej odpowiedzi Habilitant podał metody rojowe jako przykłady takich algorytmów.
W podejściach tych poszczególne elementy oddziaływują ze sobą, zachowując się jak roje
ptaków, czy ławice ryb podążając w kierunku lokalnego lidera, czy sąsiadów, zachowując
pewne minimalne odległości między sobą. Można upodobnić podejście agentowe do tych
metod rojowych wprowadzając różnego rodzaju siatki określające sąsiedztwo między
agentami i takie prace też były prowadzone, aczkolwiek nie na szerszą skalę.
W początkowych pracach Habilitanta nie było żadnej relacji sąsiedztwa między agentami,
agent mógł spotkać dowolnego agenta. Obecnie agent jest osadzony na siatce, porusza się po
niej i spotyka tylko lokalnych sąsiadów, więc występują podobieństwa z metodami, których
dotyczyło pytanie.
Habilitant zauważył, że w jego systemie szczególny nacisk jest położony na agentowość,
czyli np. na autonomiczność jego poszczególnych elementów. W rojach, o których mówił
prof. Dzwinel, jest to określone odpowiednimi równaniami, w przypadku systemów
agentowych każdy agent może podjąć sam decyzję co ma zrobić, z kim się spotkać, gdzie ma
się poruszyć, gdzie migrować, czy ma się reprodukować. Agent ma kilka możliwości w
danym momencie, może podjąć odpowiednie decyzje, może także wykorzystać algorytmy z
dziedziny machine learning, żeby się nauczyć odpowiedniego reagowania. Takim
przykładem, nad którym były prowadzone prace, było wykorzystanie metodologii LEM,
zaproponowanej przez nieżyjącego już profesora Michalskiego, polegającej na integracji
podejścia z dziedziny machine learning z obliczeniami ewolucyjnymi.
Odpowiedź została przyjęta.
Ze względu na brak dalszych głosów w dyskusji, Dziekan poprosił Habilitanta
o opuszczenie sali oraz ogłosił rozpoczęcie części niejawnej posiedzenia. Wobec braku
głosów ze strony Rady, na wniosek Dziekana odbyło się tajne głosowanie nad przyjęciem
kolokwium habilitacyjnego. Dziekan poprosił dr hab. inż. Marka Natkańca oraz dr hab. inż.
Piotra Faliszewskiego do komisji skrutacyjnej.
Wyniki głosowania nad przyjęciem kolokwium habilitacyjnego
Uprawnionych do głosowania:
38
Obecnych według listy obecności:
28
Oddano głosów:
27
Głosów za:
27
Głosów przeciw:
0
Głosów wstrzymujących się:
0
Głosów nieważnych:
0
15
Po przyjęciu przez Radę Wydziału kolokwium habilitacyjnego, Dziekan otworzył drugą część
posiedzenia poświęconą wykładowi habilitacyjnemu. Spośród trzech zaproponowanych
tematów:
Temat nr 1: Ewolucyjne sieci neuronowe
Temat nr 2: Katastrofa statku „Vasa” z punktu widzenia inżynierii oprogramowania
Temat nr 3: Sztuczne systemy immunologiczne w problemach klasyfikacji
w wyniku jawnego głosowania wybrany został temat nr 2, za którym głosowało 26 osób. Za
tematem 1. głosowała 1 osoba, zaś za tematem 3. głosowało 0 osób.
Habilitant wygłosił 15–minutowy wykład nt.
„Katastrofa statku Vasa z punktu widzenia inżynierii oprogramowania”
10 sierpnia 1628 roku zatonął szwedzki okręt wojenny Vasa w trakcie swojego
dziewiczego rejsu, po przepłynięciu ok 1300 metrów w porcie macierzystym - Sztokholmie.
Zginęły 53 osoby. Budowa tego statku była najdroższym szwedzkim przedsięwzięciem
wojennym w tym czasie. Okazuje się, że badania przeprowadzone nad genezą tej katastrofy
pozwalają na wyciągnięcie szeregu ponadczasowych wniosków odnośnie prowadzenia
projektów inżynierskich. W szczególności wnioski te przekładają się na problemy często
występujące w trakcie tworzenia projektów programistycznych. W ramach wykładu,
przedstawiona została historia i przyczyny katastrofy oraz zidentyfikowane zostały problemy
interesujące z punktu widzenia inżynierii oprogramowania. Na końcu podano odpowiednie
strategie zapobiegawcze.
Dziekan podkreślił, że wykład ma zaprezentować umiejętność wykładania, a jego temat
jest sprawą drugorzędną i nie musi być związany z daną dziedziną nauki, niemniej jednak
dopuścił do krótkiej dyskusji i zadawania pytań do wykładu. Pytania dotyczyły głównie
przyczyn historycznych katastrofy oraz finału losu statku Vasa.
Po ponownym opuszczeniu sali obrad przez Habilitanta, Dziekan poprosił Recenzentów o
ocenę dorobku naukowego, dydaktycznego i organizacyjnego dr. inż. Aleksandra Byrskiego.
Dr hab. inż. Jarosław Arabas oceniając dorobek naukowy, dydaktyczny i organizacyjny
Habilitanta skupił się na punktach mających kluczowe znaczenie dla jego oceny. Recenzent
przytoczył ilościową ocenę dorobku naukowego: publikacje w czasopismach w liczbie 21,
7 rozdziałów w książkach, z czego większość stanowią materiały konferencyjne wydawane w
renomowanych seriach wydawniczych oraz 36 artykułów na konferencjach krajowych i
zagranicznych. Większość artykułów opublikowanych w czasopismach ukazała się w
przeciągu ostatnich trzech lat, część z nich natomiast nie ukazała się jeszcze drukiem, ale
została zaakceptowana. Biorąc powyższe fakty pod uwagę, Recenzent z uznaniem odniósł się
do współczynnika Hirscha wynoszącego 4 wg. Web of Science.
O pozycji naukowej Habilitanta pośrednio świadczy także uczestnictwo w licznych
grantach NCBiR i zaproszenia do recenzji dla prestiżowych czasopism, w tym IEEE,
European Journal of Evolutionary Research, Applied Mathematics and Computer Science.
Charakteryzując publikacje Habilitanta, Recenzent stwierdził, że większość
publikowanych prac ma charakter współautorski, z podobnym zbiorem autorów, związanych
z zespołem naukowym, w którym działa Habilitant. Z przedstawionej listy publikacji wynika,
16
że wkład Habilitanta w tych publikacjach jest znaczący, w przeważającej mierze
większościowy. Habilitant wykazał się także dużą aktywnością w obszarze organizacji nauki,
przede wszystkim współorganizując kilka konferencji (w tym jedną z kilku najważniejszych
konferencji poświęconych algorytmom ewolucyjnym) jak również pełniąc rolę sekretarza
w czasopiśmie Computer Science.
Podsumowując prof. Arabas uznał, że dorobek dr. inż. Aleksandra Byrskiego świadczy
o jego dojrzałości naukowej, spełnia wymagania stawiane przy nadaniu stopnia doktora
habilitowanego, a jego aktywność naukowa i organizacyjna jest w ocenie Recenzenta
ponadprzeciętna. Recenzent ocenił z uznaniem także działalność dydaktyczną Habilitanta. We
wniosku końcowym Recenzent stwierdził, że rozprawa habilitacyjna i dorobek naukowy
spełniają wymagania stawiane przez ustawę, a także przez dobry obyczaj naukowy, wnosząc
o dopuszczenie dr. inż. Aleksandra Byrskiego do dalszych etapów przewodu habilitacyjnego.
Dr hab. inż. Roman Galar zapowiedział, że skupi się na konkluzji. Dorobek dr inż.
Aleksandra Byrskiego uznał za znaczący. Recenzent podkreślił konsekwencję Habilitanta
w rozwijaniu wybranej klasy metod agentowych i w poszukiwaniu możliwości ich aplikacji.
Przegląd dorobku publikacyjnego wskazuje, że dr Byrski działa w ramach dobrze już
wykształconej szkoły naukowej, która wypracowuje coraz lepszą pozycję międzynarodową.
Daje się też dostrzec jego działania na rzecz inicjacji młodych adeptów do prac naukowych.
Widoczna jest niewątpliwa sprawność funkcjonowania dr. Byrskiego w ramach współczesnej
organizacji nauki i szkolnictwa wyższego tak w kraju jak i za granicą. Konkluzja recenzji jest
podobna – zarówno monografia jak i dorobek naukowy uzasadniają przekonanie, że dr inż.
Aleksander Byrski jest dojrzałym badaczem, który spełnia wszystkie wymogi formalne i
merytoryczne ustawy, w efekcie Recenzent złożył wniosek do Komisji Rady Wydziału
Informatyki, Elektroniki i Telekomunikacji AGH o dopuszczenie dr Byrskiego do kolokwium
habilitacyjnego.
Prof. dr hab. inż. Franciszek Seredyński zwrócił uwagę na 8 publikacji z listy
filadelfijskiej, jego zdaniem w bardzo dobrych czasopismach, co nie jest sytuacją typową, ale
ponadprzeciętną. Prace konferencyjne, były wydawane przez dobre wydawnictwa typu
Springer, jak też IOS Press, lub Elsevier. Recenzent zwrócił uwagę na stale rosnący wskaźnik
Hirscha, obecnie już równy 5 według Web of Science, oraz na rosnącą liczbę cytowań, tj. 16
według Web of Science, 78 według ArNetMiner. Habilitant był zapraszany do komitetów
programowych konferencji oraz pełnił funkcje recenzenta w znanych czasopismach takich jak
European Journal of Operational Research, IEEE Transactions on Parallel Systems i szeregu
innych.
Jeśli chodzi o inne aspekty dorobku, Habilitant opiekował się 33 dyplomantami, kilka
z tych prac było wyróżnionych na konkursach ogólnopolskich, prowadził zajęcia dla
doktorantów na uniwersytecie w Modenie i uczestniczył aktywnie w programie Erasmus.
Recenzent uważa, że dorobek Habilitanta zasługuje na uznanie, świadczy o dojrzałym
warsztacie naukowym i wszechstronnej aktywności organizacyjnej. Całość dorobku spełnia
wymogi odpowiedniej ustawy i Recenzent wnosi o dopuszczenie Habilitanta do następnych
etapów procedury.
Prof. dr hab. inż. Witold Dzwinel podkreślił fakt publikowania przez Habilitanta
artykułów w dobrych czasopismach jak Cluster Computing, International Journal of Applied
Mathematics and Computer Science, Bulletin of the Polish Academy of Science: Technical
Sciences, za bardziej odpowiednie dla części publikacji uznał jednak inne czasopisma, takie
jak Evolutionary Computation, IEEE Transactions on Evolutionary Computing, które lepiej
wpisują się w tematykę badań i są adresowane do bardziej odpowiedniego środowiska
17
naukowego. Lepszy dobór czasopism mógłby przynieść wzrost cytowań. Do publikacji
konferencyjnych Recenzent nie miał zastrzeżeń, prace były przedstawiane na tak poważnych
konferencjach naukowych jak IEEE Congress on Evolutionary Computation, International
Conference on Computational Science, European Conference on Modelling and Simulation,
International Conference on Parallel Problem Solving from Nature.
Recenzent zaznaczył rolę, jaką pełni dr Byrski jako redaktor czasopisma Computer
Science, wydawanego na AGH, na wydziale IEiT. W ciągu kilku lat stworzył on z niego
dobrze prowadzone, o wysokim poziomie naukowym, czasopismo naukowe, mające ambicje
znaleźć się wśród czasopism z Listy Filadelfijskiej. Główny redaktor czasopisma, prof.
Kitowski, podkreśla olbrzymią rolę i zasługi dr. Byrskiego dla rozwoju czasopisma. Habilitant
był także jednym z edytorów książki wydawnictwa Springer z serii Studies in Computational
Intelligence oraz zbioru artykułów pokonferencyjnych.
Podsumowując sylwetkę naukową Habilitanta Recenzent stwierdził, że dorobek oraz
wykaz przedmiotów prowadzonych przez Habilitanta wskazują jednoznacznie, że jest on
informatykiem o doskonałym przygotowaniu merytorycznym, związanym z dziedziną
symulacji wieloagentowych, systemów równoległych i rozproszonych oraz metodami
i algorytmami inteligencji obliczeniowej. Dr Byrski posiada ważne cechy samodzielnego
pracownika naukowego: entuzjazm, dużą liczba publikacji naukowych oraz sporą aktywność
konferencyjną, umiejętności organizacyjne oraz otwartość na nowe idee, szeroki horyzont
naukowy charakteryzujący się umiejętnościami analitycznego i matematycznego myślenia
połączony z doskonałą znajomością rzemiosła informatycznego. Liczba publikacji
indeksowanych w bazie Web of Science oraz Scopus znacząco rośnie w ostatnich latach.
Biorąc pod uwagę dyscyplinę nauki, dziedzinę, w której lokują się indeksowane publikacje
oraz wiek habilitanta, wyniki biometryczne (w tym wartość indeksu Hirsha) można oceniać
jako akceptowalne w przypadku wniosku o stopień doktora habilitowanego.
Recenzent uznał, że dorobek naukowy Habilitanta jest wystarczający pod względem tak
ilościowym jak i jakościowym w stosunku do wymagań stawianych dla uzyskania stopnia
doktora habilitowanego nauk technicznych w specjalności Informatyka. Biorąc pod uwagę
wysoką ocenę zarówno monografii jak i dorobku, Recenzent wnioskował o dopuszczenie
pana dr. Aleksandra Byrskiego do dalszych faz przewodu habilitacyjnego.
Dziekan potwierdził, że dr Aleksander Byrski jest bardzo aktywny organizacyjnie,
chętnie i z dużym zaangażowaniem realizuje prace, które są mu powierzane.
Wobec braku dalszych głosów w dyskusji, została ona zamknięta i przystąpiono do
tajnego głosowania nad nadaniem dr. inż. Aleksandra Byrskiego stopnia naukowego doktora
habilitowanego z dziedziny nauk technicznych w dyscyplinie Informatyka.
Wyniki głosowania nad nadaniem stopnia naukowego doktora habilitowanego
Uprawnionych do głosowania:
38
Obecnych według listy obecności:
28
Oddano głosów:
27
Głosów za:
Głosów przeciw:
Głosów wstrzymujących się:
Głosów nieważnych:
27
0
0
0
18
Wobec pozytywnego wyniku głosowania, Pan Dziekan prof. dr hab. Tadeusz
Pisarkiewicz, stwierdził, że Rada Wydziału Informatyki, Elektroniki i Telekomunikacji
podjęła uchwałę o nadaniu dr Aleksandrowi Byrskiemu stopnia naukowego doktora
habilitowanego nauk technicznych w dyscyplinie Informatyka i po wejściu Habilitanta
oficjalnie przekazał mu tę wiadomość.
Dziekan pogratulował dr hab. inż. Aleksandrowi Byrskiemu. W końcowym słowie dr hab.
Aleksander Byrski złożył podziękowania Panu Dziekanowi, Recenzentom, Wysokiej Radzie
oraz najbliższym współpracownikom za stworzenie dobrej i twórczej atmosfery pracy.
W związku z wyczerpaniem porządku obrad, Dziekan zamknął posiedzenie Rady
Naukowej Wydziału Informatyki, Elektroniki i Telekomunikacji AGH.
Dnia 5.12.2013