Kraków, 16 listopada 2006 r
Transkrypt
Kraków, 16 listopada 2006 r
Protokół z Posiedzenia Rady Naukowej Wydziału Informatyki, Elektroniki i Telekomunikacji Akademii Górniczo-Hutniczej im. Stanisława Staszica w Krakowie, które odbyło się w dniu 5. grudnia 2013 r. Kolokwium habilitacyjne dr. inż. Aleksandra Byrskiego Obrady otworzył o godzinie 10:00 Dziekan Wydziału Prof. Tadeusz Pisarkiewicz. Stwierdził ważność posiedzenia - na 38 uprawnionych do głosowania członków Rady Naukowej przybyło 28 osób, co stanowiło 74%, a więc niezbędne dla podejmowania prawomocnych uchwał kworum. Następnie powitał recenzentów, dr. hab. inż. Romana Galara (Politechnika Wrocławska), dr. hab. inż. Jarosława Arabasa (Politechnika Warszawska), prof. dr. hab. inż. Franciszka Seredyńskiego (Uniwersytet im. Kardynała Stefana Wyszyńskiego) i prof. dr. hab. inż. Witolda Dzwinela (AGH w Krakowie), wszystkich przybyłych członków Rady Wydziału i przystępującego do kolokwium habilitacyjnego dr. inż. Aleksandra Byrskiego. Dziekan krótko przypomniał historię przewodu habilitacyjnego wszczętego 10. kwietnia 2013 r na wniosek zainteresowanego. Przedstawił również skład zespołu do przeprowadzania czynności w przewodzie habilitacyjnym dr Byrskiego. Zespół ten powołała Rada Wydziału Informatyki Elektroniki i Telekomunikacji AGH na posiedzeniu w dniu 25. kwietnia 2013 r (nr 59/st/2013). Zespołowi przewodniczył prof. Krzysztof Zieliński, a w skład zespołu weszli prof. dr hab. inż. Jacek Kitowski, prof. dr hab. inż. Robert Schaefer, prof. dr hab. inż. Tomasz Zieliński i dr hab. inż. Grzegorz Dobrowolski, prof. AGH. Zespół po zapoznaniu się z przedłożoną monografią oraz pozostałymi dokumentami złożonymi przez Habilitanta zarekomendował Radzie otwarcie przewodu habilitacyjnego. Na posiedzeniu w dn. 23. maja 2013 r. w głosowaniu tajnym rada podjęła uchwałę (nr 69/st/2013) wyrażającą zgodę na wszczęcie przewodu i powołała dwóch recenzentów: prof. dr. hab. inż. Franciszka Seredyńskiego i prof. dr. hab. inż. Witolda Dzwinela. Komplet dokumentów został przesłany do Centralnej Komisji ds. Stopni Naukowych i Tytułu Naukowego. CK pismem datowanym 7. czerwca 2013 zatwierdziła obu recenzentów proponowanych przez Radę WIET oraz powołała dwóch dodatkowych recenzentów w osobach dr. hab. inż. Romana Galara i dr. hab. inż. Jarosława Arabasa. W następstwie otrzymania czterech pozytywnych recenzji zespół wnioskował do Rady o dopuszczenie Habilitanta do kolokwium. Rada Wydziału na posiedzeniu w dniu 24. października 2013 (uchwałą nr 126/st/2013) dopuściła dr. inż. Aleksandra Byrskiego do kolokwium habilitacyjnego. Datę kolokwium wyznaczono na 5. grudnia 2013. Dziekan następnie poprosił Habilitanta o zwięzłe przedstawienie przedłożonej monografii habilitacyjnej pt. „Agent-based Metaheuristics in Search and Optimisation” wydanej przez Wydawnictwa AGH w serii Rozprawy i Monografie (nr 268) w 2013 r. Habilitant rozpoczął od uzasadnienia zastosowania metaheurystyk do rozwiązywania problemów istotnie trudnych oraz zwrócił uwagę na trudności w analizie formalnej tworzonych rozwiązań. Istotnymi problemami zidentyfikowanymi przez Habilitanta było 2 zapewnienie gwarancji znalezienia rozwiązania przy pomocy tak złożonych metod, oraz oszacowanie kosztu (np. czasowego) znalezienia rozwiązania. Habilitant stwierdził, że odpowiedzi na te pytania może dostarczyć konstrukcja i analiza dedykowanych formalizmów. Habilitant powiedział, iż jego praca badawcza koncentruje się wokół metaheurystyki agentowej EMAS (Ewolucyjny System Wieloagentowy - Evolutionary Multi-agent System, K. Cetnarowicz et al. 1996), oraz wariantu immunologicznego tej metaheurystyki immunological EMAS (iEMAS), którego Habilitant jest autorem. Zwrócił uwagę na brak dedykowanych modeli dla obliczeniowych systemów agentowych, memetycznych czy też kulturowych. Następnie Habilitant określił cele swojej pracy badawczej jako: opracowanie precyzyjnych modeli formalnych EMAS (oraz iEMAS) bazujących na wykorzystaniu łańcuchów Markowa, wykorzystanie skonstruowanych modeli do przeprowadzenia analizy formalnej ukierunkowanej na dowodzenie własności asymptotycznych obliczeń prowadzonych przy pomocy tych systemów, przeprowadzenie badań eksperymentalnych EMAS (oraz iEMAS), dotyczących cech rozważanych systemów oraz możliwości zastosowania ich do konkretnych problemów rzeczywistych. Habilitant zaprezentował przegląd stanu wiedzy dotyczący metaheurystyk. Zwracając uwagę na potrzebę sankcjonowania wykorzystywania metaheurystyk za pomocą dedykowanych formalizmów, Habilitant przypomniał najważniejsze z prac formalnych w dziedzinie. Następnie Habilitant przeszedł do prezentacji metaheurystyki agentowej EMAS, która jest przedmiotem jego badań. Tak określona koncepcja systemu wymagała opracowania dedykowanego modelu formalnego, przygotowanego w oparciu o teorię łańcuchów Markowa, którego elementy zostały również zaprezentowane przez Habilitanta. Bazując na skonstruowanym formalizmie, Habilitant podał twierdzenie o ergodyczności łańcucha Markowa modelującego EMAS, a następnie przedstawił strategię przeprowadzania dowodu sformułowanego twierdzenia i płynące z niego wnioski. Habilitant stwierdził, że skonstruowany formalizm posiada potwierdzoną skuteczność, gdyż albo w całości, albo w części został już ponownie użyty do modelowania kilku wybranych metaheurystyk. Następnie Habilitant przedstawił wybrane wyniki badań eksperymentalnych dotyczących zarówno badania efektywności działania obliczeń agentowych przy użyciu funkcji benchmarkowych jak i wybranych problemów rzeczywistych. Na końcu dwudziestominutowej prezentacji Habilitant podsumował osiągnięte wyniki i zaprezentował wnioski płynące z przeprowadzonych badań formalnych i eksperymentalnych. Po zakończeniu prezentacji habilitacyjnej, Dziekan poprosił Recenzentów o odczytanie recenzji w części dotyczącej oceny monografii. Recenzenci w kolejności dr. hab. inż. Jarosław Arabas, dr. hab. inż. Roman Galar, prof. dr. hab. inż. Franciszek Seredyński i prof. dr. hab. inż. Witold Dzwinel odczytali stosowne fragmenty swoich recenzji. W konkluzji, każdy z Recenzentów stwierdził, że rozprawa habilitacyjna dr. inż. Aleksandra Byrskiego spełnia wymagania aktualnie obowiązującej ustawy. Po odczytaniu recenzji Dziekan poprosił Habilitanta o udzielenie odpowiedzi na uwagi Recenzentów. Ze względu na fakt, iż szereg uwag zgłoszonych przez Recenzentów pokrywało się, Habilitant poprosił o możliwość uporządkowania pytań Recenzentów według zagadnień i udzielanie odpowiedzi w takim porządku. Wszyscy Recenzenci wyrazili zgodę na takie rozwiązanie. 3 Zagadnienie 1: Użyteczność stosowanego formalizmu Uwaga Prof. dr. hab. inż. Witolda Dzwinela: Pomimo iż Habilitant poradził sobie bardzo dobrze z problemami matematycznego zapisu poszczególnych algorytmów i procedur, a także udowodnił podstawowe właściwości jakie musi spełniać algorytm poszukiwania najlepszego rozwiązania (ergodyczność), wyraźnie utknął w pół drogi, nie próbując na bazie teorii formułować uzasadnianych przez nią hipotez badawczych. W tym sensie, stworzony zalążek opisu formalnego nie posiada wystarczającej siły wnioskowania i z punktu widzenia zasad dobrej praktyki naukowej, jest mało użyteczny. Uwaga Prof. dr. hab. inż. Franciszka Seredyńskiego: Pewien niedosyt budzi brak widocznego związku między opracowanym modelem formalnym, a częścią eksperymentalną pracy, innymi słowy nie jest widoczne bezpośrednie przełożenie, np. zmian wartości pewnych parametrów na konkretne cechy modelu formalnego. W odpowiedzi Habilitant zaznaczył, że formalizm dostarcza wyników jakościowych. Trudno jest zaproponować model, który będzie jednocześnie dostarczał wyników ilościowych. Jeśli chodzi o jego użyteczność, elementy tego formalizmu zostały już zastosowane do modelowania innych heurystyk, takich jak HGS, równoległy algorytm ewolucyjny oraz EMAS w przypadku optymalizacji niestacjonarnej. Prof. Seredyński uznał, że odpowiedź jest wystarczająca. Prof. Dzwinel także uznał, że odpowiedź jest wystarczająca, zwrócił jednak uwagę, że jeżeli tworzy się jakiś model formalny, to powinien mieć on bezpośrednie przełożenie przynajmniej na wnioski związane z budową dalszych heurystyk. Jeśli udowadnia się zbieżność danej metody, można ją stosować dla dowolnych warunków początkowych, jeśli się udowadnia zbieżność z jakimiś ograniczeniami, to nie można jej używać do rozwiązywania problemów spoza tych ograniczeń. Brakuje dalszego elementu, jeżeli chodzi o analizę formalną, którym byłoby udowodnienie zbieżności asymptotycznej danego rozwiązania. W pracy udowodniona została zbieżność w sensie słabym, w sensie dystrybuanty. Habilitant zgodził się z uwagą Prof. Dzwinela, jednak zwrócił uwagę na wyniki badań własności asymptotycznych algorytmów ewolucyjnych otrzymywane w renomowanych zespołach naukowców (np. prof Guntera Rudolpha), dla uzyskania których przyjęto bardzo restrykcyjne ograniczenia odnośnie funkcji celu (np. założono wypukłość funkcji). Takich założeń odnośnie funkcji przystosowania Habilitant nie przyjmował. Odpowiedzi zostały przyjęte. Zagadnienie 2: Problem z założeniami do dowodu ergodyczności Uwaga Prof. dr. hab. inż. Witolda Dzwinela: W części teoretycznej rozprawy brakuje szerszej dyskusji przyjętych założeń do dowodu ergodyczności algorytmów EMAS (i iEMAS), szczególnie niezrozumiałych dla czytelnika ograniczeń na ilość wykorzystywanej energii (pierwsze 4 założenia do Twierdzenia 3.11). Jakie konsekwencje na ergodyczność algorytmu ma złamanie któregoś z tych ograniczeń?. Założenie 6 oznacza, iż węzły, w których znajdują się agenty, tworzą klikę. Wydaje mi się, że założenie to można by obejść, zakładając, że ergodyczny jest także system 4 złożony z dwóch węzłów. Zatem dowolne połączenie większej ilości takich samych systemów nie łamie zasady ergodyczności. W odpowiedzi Habilitant stwierdził, że cztery pierwsze założenia były związane z chęcią zapewnienia własności systemu, która jest zwana bezpieczeństwem. Jeśli te założenia nie będą spełnione, wtedy może dojść do jakiejś niepożądanej sytuacji, samego zaś dowodu w tym momencie nie będzie można przeprowadzić. Chodziło o zabezpieczenie się przed pewnymi szczególnymi przypadkami, które mogłyby zablokować przebieg dowodu np. założenie drugie wskazuje, że musi istnieć możliwość stworzenia maksymalnej populacji, a ponieważ agenty wymieniają się energią, jeśli nie będzie dostatecznej energii, nie uda się stworzyć maksymalnej populacji. Jeśli chodzi o drugą uwagę na temat węzłów i ergodyczności systemu złożonego z klik, to taki system także stanowiłby system ergodyczny na mocy dowodu ergodyczności dla każdego osobnego grafu spójnego. Odpowiedź została przyjęta. Zagadnienie 3: Histogramy przystosowania i energii dla agentów w EMAS Uwaga Prof. dr. hab. inż. Witolda Dzwinela: Jak wygląda histogram wartości funkcji przystosowania (w poszczególnych krokach ewolucji systemu) w porównaniu z podobnym histogramem energii dla agentów? Czy wprowadzenie energii do algorytmu nie jest redundantne z wartościami przystosowania? W szczególności, czy wysoki fitness mogą posiadać agenty o małej energii? Jeżeli nie, to jaką dodatkową wartość dla algorytmu poszukiwania rozwiązania stanowi energia? Habilitant odpowiedział, że te dwie wartości są niezależne, histogramy mogą się różnić. W szczególności agenty o wysokiej energii mogą mieć przez pewien czas niską wartość funkcji przystosowania, lub odwrotnie agenty o niskiej energii, powstałe jako efekt reprodukcji, mogą mieć wysoką wartość funkcji przystosowania, a energię zaczną gromadzić podczas spotkań. Habilitant zadeklarował możliwość zaprezentowania odpowiednich histogramów. Prof. Dzwinel odparł, że widział te histogramy, gdyż dr Byrski przesłał mu je wcześniej, i widać, że są one skorelowane. Chodzi tu jeszcze o sposób zmiękczenia operatora selekcji. W pracy Mahfoud i Goldberg 1994 lub 1995 taki efekt jest osiągany przez dodanie do algorytmu genetycznego symulowanego wyżarzania. Dzięki temu operator selekcji jest zmiękczony przez funkcję e T. Odpowiedź została przyjęta. Zagadnienie 4: Aspekt porównawczy Uwaga Prof. dr. hab. inż. Witolda Dzwinela: Implementacje algorytmów bazujących na środowisku EMAS porównywane są do implementacji ewolucyjnych algorytmów optymalizacyjnych PEA (ang. Parallel Evolutionary Algorithm), o których Autor pisze niewiele. Brak jest specyfikacji implementacji PEA i oceny jej jakości w kontekście heurystyk stanowiących state_of_the_art w dziedzinie poszukiwań najlepszego rozwiązania. Odnośniki literaturowe do tego modelu obliczeń są nieaktualne. Wątpliwym jest, czy PEA to wystarczająco efektywne, szybkie i popularne narzędzie, które stanowiłoby wystarczająco konkurencyjny system do porównań. 5 Uwaga Prof. dr. hab. inż. Witolda Dzwinela: Praca habilitacyjna powinna mieć znacznie szerszy wydźwięk, w tym porównawczy. Testowane środowisko EMAS, choć interesujące, nie jest powszechnie rozpoznawalne w środowisku naukowym, dlatego bazujące na nim algorytmy powinny być porównywane z algorytmami state_of_the_art w dziedzinie optymalizacji niedeterministycznej. Uwaga Dr. hab. inż. Jarosława Arabasa: W części eksperymentalnej Autor eksperymentalnie wykazuje wyższość EMAS nad PEA. Z punktu widzenia analizy statystycznej wyników praca nie budzi zastrzeżeń. Mam jednak wątpliwości, czy algorytm PEA nie pełni roli ,,partnera sparingowego''. Od roku 2005 odbywają się praktycznie coroczne konkursy optymalizacyjne organizowane przy dwóch ważnych konferencjach z obszaru metaheurystyk: konkursy z serii CEC (przy konferencji Congress on Evolutionary Computation) oraz z serii BBOB (przy konferencji GECCO). Na potrzeby konkursu opracowano standaryzowane procedury testowania i funkcje testowe, co pozwala na porównanie własnych wyników z uzyskiwanymi przez innych autorów, bez narażania się na zarzut wyboru niewłaściwego algorytmu lub jego niedbałej parametryzacji. Sądząc po wynikach EMAS, prezentowanych w rozprawie, udałoby się zapewne uzyskać dobre rezultaty testów, jednak pozostaje to na razie w sferze przypuszczeń. Habilitant odparł, że zgadza się z uwagami i że będzie się starał w przyszłości dobierać także inne algorytmy do porównania, również benchmarki z konferencji, które były cytowane. Przyczyną wyboru tego właśnie algorytmu było to, że wybrany algorytm ewolucyjny został tak sparametryzowany, by był możliwie zbliżony do systemu EMAS, będąc jednocześnie ,,nieagentowym''. Tak więc porównywano dwa systemy, system agentowy z maksymalnie zbliżonym systemem ewolucyjnym. Operatory krzyżowania, mutacji, inicjacji, memetyzacji były wspólne, w algorytmie ewolucyjnym była zastosowana selekcja turniejowa, która jest maksymalnie zbliżona do rozwiązania użytego w EMAS, czyli przekazywania energii podczas spotkań. Prof. Arabas odparł, że przyjmuje tę odpowiedź. Czytając rozprawę miał wrażenie, że jest ona poświęcona systemowi wieloagentowemu jako przedmiotowi badań, a niekoniecznie jest nastawiona na stworzenie najlepszego systemu optymalizującego nieznaną funkcję celu, bez żadnych założeń co do jej charakteru. Przyjmując taką perspektywę, rzeczywiście użycie algorytmu PEA w tym wariancie, jaki został przyjęty, jest dobrym wyborem. Prof. Dzwinel także przyjął odpowiedź, uznał jednak, że część eksperymentalna jest najsłabsza w całej pracy, gdyż zdecydowanie więcej czasu należało poświęcić na zbadanie konkurencyjności innych podejść. Odpowiedzi zostały przyjęte. Zagadnienie 5: Brakuje uzasadnienia wyboru funkcji testowych Uwaga Prof. dr. hab. inż. Witolda Dzwinela: Brakuje uzasadnienia wyboru funkcji testowych. Standardy w tej dziedzinie wyznacza od wielu lat konferencja IEEE Congress on Evolutionary Computation, a szczególnie organizowane w jej ramach zawody na najlepszy algorytm optymalizacyjny (Competition on Large Scale Global Optimization). Wybrane przez Habilitanta funkcje to głównie funkcje addytywnie i multiplikatywnie separowalne (oprócz funkcji Rosenbrocka). Brakuje tak 6 ważnych klas funkcji testowych jak funkcje częściowo separowalne i - najtrudniejsza klasa funkcje nieseparowalne. Brakuje także przedstawiciela funkcji dyskretnych silnie zwodniczych. Ważna do oceny jakości algorytmu jest też duża wymiarowość tych funkcji, ok. 1000, dla których to wymiarowości gwałtownie pogarsza się jakość heurystyk wykorzystujących tzw. inteligencje grupową. Tymczasem, wykonywane przez Autora testy dotyczą funkcji maksymalnie 100 wymiarowych, a głównym testem porównawczym jest łatwa funkcja Rastrigina, a nie któraś z trudnych funkcji nieseparowalnych. Habilitant odpowiedział, że skupiał się na problemach ciągłych, ale obecnie zaczął zmieniać zainteresowania i koncentruje się bardziej na problemach dyskretnych, przechodząc do bardziej złożonych problemów. W jednej z cytowanych prac, której Habilitant jest współautorem, podjęto próbę optymalizacji funkcji 1000-wymiarowych, ale dla zachowania spójności z innymi uzyskanymi wynikami eksperymentalnymi, takie wyniki nie zostały zamieszczone w monografii, gdzie ograniczył się do wymiarowości 100 i 50. Prof. Dzwinel odparł, że drugie pytanie w zasadzie dotyczyło tego, co było omawiane wcześniej (było związane z częścią eksperymentalną pracy). Jego uwaga nie dotyczyła spraw związanych z optymalizacją dyskretną, ale raczej użycia w eksperymentach funkcji ciągłych, które posiadają wyizolowane minima (funkcje stogu siana, minima typu zwodniczego, szerokie minima i wąskie minimum globalne, minima o długich dolinach). Prof. Dzwinel nie koncentrował się w tym pytaniu na funkcjach dyskretnych, gdyż wie, że metodologia Habilitanta było przystosowana do funkcji ciągłych. Prof. Dzwinel przyjął udzieloną odpowiedź. Dziekan skomentował, że jako niespecjalista dowiedział się, że 100 wymiarów to jest jednak mało w niektórych dziedzinach, podczas gdy wydaje się intuicyjnie, że jest to dużo. W odpowiedzi Habilitant odniósł się do rozwiązywanego problemu praktycznego (Step and Flash Imprint Lithography), dla którego wystarczyło 27 wymiarów, Odpowiedź została przyjęta. Zagadnienie 6: Dlaczego iEMAS nie został zastosowany do problemu SFIL Uwaga Prof. dr. hab. inż. Witolda Dzwinela: Optymalizacja strategii gry Sudoku stanowi ważny problem testowy, lecz nie może być traktowana jako przykład technologicznie ważnego zastosowania stworzonego narzędzia. Bardziej interesujący jest wynik zastosowania paradygmatu EMAS w rozwiązywaniu problemu odwrotnego związanego z asymilacją danych do modelu komputerowego pewnego procesu technologicznego. Nasuwa się jednak pytanie, dlaczego Autor nie wykorzystał paradygmatu iEMAS do zmniejszenia ilości symulacji i zwiększenia efektywności poszukiwania rozwiązania, który stworzony był właśnie dla tego typu problemów, charakteryzujących się bardzo czasochłonnym obliczaniem współczynnika przystosowania. Habilitant odpowiedział, że wspomniane eksperymenty przeprowadzał już pod koniec przygotowania monografii. Nie zdążył przeprowadzić eksperymentów o które pytano z kilku względów, m.in. z powodu niestabilności pewnych elementów oprogramowania. Odpowiednie badania planuje uruchomić wraz z prof. Paszyńskim za 2 miesiące, wykorzystując m.in. nowe solvery oraz metody immunologiczne. 7 Odpowiedź została przyjęta. Zagadnienie 7: Kompleksowość i eklektyczność metaheurystyk. Wątpliwości lekarzy odnośnie skumulowanego działania różnych leków Uwaga Dr. hab. inż. Romana Galara: Proponowane systemy obliczeniowe mają charakter eklektyczny, stanowiąc agregaty różnych operatorów obliczeniowych. Do takiego podejścia motywuje dążenie do zwiększenia uniwersalności obliczeniowej. Przy rozważaniu walorów „kompleksowych metaheurystyk” pojawiają się jednak wątpliwości, podobne do wątpliwości lekarzy, co do skumulowanego działania na organizm kilku różnych leków. W odpowiedzi Habilitant potwierdził, że zdaje sobie sprawę z tego problemu. Praca była m.in. poświęcona temu, by udowodnić skuteczność takiej złożonej metody rozwiązywania problemów dostarczając pewien formalizm oraz dowodząc asymptotycznej gwarancji sukcesu, natomiast użyta metoda nie rozwiąże wszystkich problemów z równą efektywnością. Prof. Galar wygłosił w odpowiedzi bardziej ogólną uwagę przywołując jeden z węzłowych punktów rewolucji naukowo-technicznej, a następnie odniósł się do dziedziny badań, której dotyczy habilitacja. Zwrócił uwagę, że od uzyskania rozwiązania problemu testowego o wysokiej jakości ważniejsze jest zrozumienie dlaczego i w jakich warunkach dane algorytmy działają. W algorytmach ewolucyjnych, najlepsze rozwiązanie w danej chwili niekoniecznie wiedzie do jeszcze lepszych rozwiązań, istotnym pytaniem jest, jak dostać rozwiązania lepsze niż obecne. Dlatego rozwiązania benchmarkowe w tej fazie rozwoju dyscypliny mogą być szkodliwe. Obecnie powstaje bardzo dużo prac komplikujących sytuację i badających te same problemy. Recenzent odniósł się następnie do użyteczności zbieżności obliczeń wykazanych w pracy podkreślając, że Habilitant dowiódł umiejętności konstrukcji formalizmów i operowania na nich, natomiast ma wątpliwości co do praktycznej użyteczności metody, gdyż asymptotyka często może się sprawdzić dopiero po bardzo długim czasie, a ważne są rozwiązania, które otrzymuje się stosunkowo szybko. W tym momencie Prof. Dzwinel poprosił o głos, i stwierdził, że dyskutowana dziedzina jest obecnie na tyle dojrzała, że można ją oceniać. Benchmarkowanie ma w tym wypadku bardzo dużą użyteczność. Przy rozwiązywaniu różnych trudnych problemów i stwierdzaniu, jak szybko dane metody przynoszą rozwiązania, można uzyskać informację o tych metodach. Benchmarkowanie nie służy więc tylko do uzyskania czasu na danym komputerze, ale umożliwia lepsze zrozumienie tego, jak działa metoda. Analiza formalna na temat tych metod pozwala na uzyskanie nowej wiedzy na ich temat wtedy, gdy otwiera drogę do nowego typu wnioskowania, do nowych wyzwań związanych z pojmowaniem rzeczy. Odpowiedź została przyjęta. 8 Zagadnienie 8: Arbitralna spontaniczność pewnych elementów systemu np. częstotliwości migracji. Uwaga dr. hab. inż. Romana Galara: Zwraca uwagę arbitralnie ograniczona spontaniczność np. migracji, podyktowana zapewne chęcią uproszczenia synchronizacji algorytmów. Sądzę, że arbitralności tej można by się wyzbyć wprowadzając odpowiednie reguły losowe, co uczyniłoby heurezę bardziej spójną. Habilitant stwierdził, że po krótkiej analizie modelu pod kątem uwagi Recenzenta, doszedł do wniosku, że nie wystąpiłaby konieczność dogłębnej modyfikacji samego modelu, nie powinny również wystąpić żadne negatywne efekty odnośnie dowodu ergodyczności. Zmiana częstotliwości migracji jest możliwa a sugestia zostanie wdrożona w przyszłych pracach. Odpowiedź została przyjęta. Po udzieleniu przez dr Byrskiego odpowiedzi na pytania i uwagi Recenzentów, rozpoczęto kolejną część posiedzenia, w której każdy obecny mógł zadać pytanie Habilitantowi, do czego zachęcił Dziekan. Dr hab. inż. Przemysław Krehlik Prof. Krehlik spytał o sformułowanie, że prawdopodobieństwo jest silnie dodatnie i jego interpretację podnosząc kwestię, że prawdopodobieństwo jest zawsze dodatnie. Habilitant odparł, że prawdopodobieństwo może być także równe 0, a zero nie jest liczbą dodatnią. „Silnie dodatnie” należy rozumieć „większe niż zero”. Odpowiedź została przyjęta. Dr hab. inż. Jarosław Arabas Prof. Arabas spytał o relację między algorytmem i jego realizacją w postaci programu oraz ujęcie w tym kontekście dowodów zbieżności, a w szczególności tego dowodu, który został zaprezentowany w pracy. Czy jeśli można udowodnić ergodyczność procesu Markowa dla algorytmu realizującego pewien proces obliczeniowy, to wynika z tego w sposób jednoznaczny, że ta sama cecha będzie spełniona w przypadku programu? Np. jeśli ma się do czynienia z algorytmem ewolucyjnym używającym mutacji zgodnie z rozkładem Gaussa, to rozkład Gaussa chociaż formalnie ma gęstość nie zanikającą do zera w całej dziedzinie, to w praktyce nie daje się tego osiągnąć (ze względu na zaokrąglenia obecne w systemach liczb zmiennopozycyjnych). Czy fakt ten nie psuje efektu nie tylko tego przedstawionego twierdzenia, ale także twierdzenia, które przedstawił Rudolph w swoich pracach? Pojawia się problem, że budowane teorie o algorytmach optymalizacyjnych nie znajdują przełożenia na parametryzacje, które są używane w praktyce, albo nie mają przełożenia w mechanizmach algorytmicznych, które są dodawane, by zapewnić ich dobre własności asymptotyczne. Habilitant odparł, że gdyby skonstruował algorytm, który miałby struktury danych przypominające stany zdefiniowane w modelu, oraz symulował odpowiednie operatory krzyżowania i mutacji, to nie dałoby to wprawdzie pewności, ale można by było być przekonanym dzięki zaprezentowanemu dowodowi, że uda się osiągnąć rozwiązanie. Na 9 temat poprawności programu napisano wiele prac. Habilitant przypomniał stwierdzenie Sir Hoare'a o poprawności częściowej i pełnej programu, które określają odpowiednio, że program umożliwia znalezienie poprawnego rozwiązania oraz daje gwarancję zatrzymania się. Można tu wyróżnić dwa poziomy: teoretyczny oraz technologiczny. Prezentowany w rozprawie formalizm nie gwarantuje niczego na 100% na poziomie technologicznym, tzn. tego, czy program będzie poprawnie skonstruowany. Prof. Arabas sprecyzował swoje wątpliwości, czy ograniczenia wynikające z numeryki nie mają istotnego wpływu na wnioski wysnuwane z twierdzeń. Ma się tutaj do czynienia ze skumulowanym efektem zmian, które zachodzą z bardzo małym, bliskim zera, prawdopodobieństwem i rozpatrywane zjawiska opisywane w sposób teoretyczny dla algorytmu mogą być trudne do odwzorowania w realnym programie. Habilitant zgodził się z możliwością wystąpienia takich problemów. Podkreślił, że dlatego najpierw pracował w zespole tworząc wersje ciągłe tych algorytmów, a potem przeszedł na wersję dyskretną modelu, która jest bardziej zbliżona do poziomu technologicznego. Odpowiedź została przyjęta. Prof. dr hab. Tomasz Stobiecki Prof. Stobiecki odniósł się do modułu Younga, który jest w prezentowanych eksperymentach przenoszony na substancje biologiczne. Moduł Younga jest związany ze sprężystością, a trudno przyjmować, że substancja biologiczna jest sprężysta, dlatego Habilitant został poproszony o wyjaśnienie tego daleko idącego fizycznego przybliżenia. Habilitant odpowiedział, że fotopolimery w zasadzie charakteryzują się jednym modułem Younga, ale tutaj następuje zerwanie tzw. maski z fotopolimeru, który zastygł, i wtedy w różnych miejscach odcisku wartości modułu Younga mogą być różne. Odcisk jest podzielony na sześciany i badana jest wartość modułu Younga w różnych miejscach, żeby zidentyfikować miejsca, gdzie był naderwany. Dziekan skomentował, że jego zdaniem tę odpowiedź można uznać. Jeśli to jest struktura utwardzona, to ma ona pewną sztywność, a wtedy moduł Younga ma sens. Odpowiedź została przyjęta. Dr hab. Maciej Paszyński (komentarz) Prof. Paszyński jako uczestnik wzmiankowanych w poprzednim pytaniu badań i autor części użytego oprogramowania wyjaśnił, że stosowany był model cząsteczkowy. Po pierwsze ten polimer nie był substancją biologiczną, polimer był w stanie ciekłym, na skutek naświetlania UV zaczynają się tworzyć łańcuchy polimerów, ten proces symulowano za pomocą metody cząstek. Następnie fotopolimer został umieszczony w szablonie, podczas zrywania tego szablonu mogą nastąpić uszkodzenia łańcuchów polimerów. Problemem było zasymulowanie tego materiału, polimeru, przy użyciu metody ciągłej oraz modelu liniowej sprężystości ze współczynnikiem rozszerzalności cieplnej, z tego względu, że łańcuchy polimeru w różnych miejscach mogą być w różnym stopniu naderwane. Dlatego założono, że ten materiał może mieć różne wartości modułu Younga, i dlatego przewidywano 27 modułów Younga na takiej kostce. Problem odwrotny został tak zdefiniowany, iż dla zadanego kształtu, który 10 uzyskiwano symulacją metodą cząstek, chciano uzyskać podobny wynik modelu ciągłego, a funkcja misfitu porównywała kształty. Dr hab. inż. Krzysztof Cetnarowicz Prof. Cetnarowicz odniósł się do grupy podejść do programowania, algorytmów bio-inspired, czyli inspirowanych przyrodą. W prezentowanych pracach zastosowano kawałek procesu immunologicznego do algorytmu ewolucyjnego, co jest złożeniem dwóch takich podejść. Prof. Cetnarowicz zapytał, czy było to sztuczne dołożenie algorytmu wyjętego z algorytmu immunologicznego, czy też istnieje znana analogia biologiczna. Habilitant odparł, że w algorytmach immunologicznych istnieje wiązanie między paratopem i epitopem, które charakteryzuje się tym, że po przekroczeniu pewnego poziomu przystosowania, komórki immunologiczne się aktywują i usuwają intruzów. Habilitant zastanawiał się, czy podobne rozwiązanie nie mogłoby być wprowadzone do metaheurystyki autorstwa prof. Cetnarowicza, czyli mieć dedykowany zestaw komórek, który będzie usuwał niedobre lub gorsze rozwiązania. Prof. Cetnarowicz zapytał, czy znane są z kolei Habilitantowi procesy czysto biologiczne, które wykorzystują w immunologii ewolucyjne zjawiska. Habilitant podał przykład selekcji klonalnej w układzie immunologicznym kręgowców, która przebiega podobnie. W tym przypadku nie stosuje się krzyżowania, zamiast tego wykorzystuje się mutację i hipermutację. Odpowiedź została przyjęta. Prof. dr hab. inż. Andrzej Kos Prof. Kos zapytał Habilitanta, czy rozwijane przez niego metody są lepsze, skuteczniejsze, lub mniej czasochłonne od klasycznych algorytmów optymalizacji (z lat 70-tych, np. metody ze skalarnym wskaźnikiem jakości, potem pojawiły się sieci neuronowe). Zdaniem Habilitanta podstawowe zalety metod nad którymi pracuje, powtarzają podstawowe zalety algorytmów ewolucyjnych, czyli możliwość osiągnięcia optimum globalnego bez specjalnych dodatkowych założeń. Nie są to algorytmy optymalizacji lokalnej, ale globalnej. Wychodząc z algorytmów ewolucyjnych uwzględniono paradygmat agentowy. Udaje się powtórzyć a nawet wzmocnić niektóre zalety algorytmów ewolucyjnych, choćby dlatego, że dzięki podejściu agentowemu może się zmniejszyć koszt obliczeniowy w EMAS i iEMAS. Habilitant nie może porównać EMAS i iEMAS bezpośrednio do algorytmów wspomnianych w pytaniu, ale może porównać te systemy oraz ich warianty do algorytmów ewolucyjnych, które pod wielu względami są lepsze od wspomnianych na początku podejść. Prof. Kos odniósł się do stwierdzenia Habilitanta, że jest on w stanie znaleźć optimum globalne, podczas gdy często takie minimum może być trudne do znalezienia. W szczególności dziedzina problemu może być nieznana lub nieskończona, a zatem problem optymalizacji globalnej w ogólnym przypadku może nie mieć rozwiązania. 11 Habilitant sprecyzował, że nie może zagwarantować, iż znajdzie optimum globalne, ale ma taką szansę, co jest potwierdzone przez wyniki badań formalnych. Nie można zagwarantować znalezienia optimum globalnego w każdym przypadku, ale formalizm sugeruje, że taka możliwość istnieje. Odpowiedź została przyjęta. Prof.dr hab. inż. Robert Schaefer (komentarz) Prof. Schaefer poprosił o możliwość wygłoszenia komentarza. Wyjaśnił, że współpracuje z dr Byrskim i miał udział w części jego badań, dlatego z wielkim zainteresowaniem wysłuchał recenzji prac. Teoria i model markowowski jest raczej frameworkiem dla pewnej dużej grupy algorytmów, stąd może wrażenie eklektyczności, o której mówił prof. Galar. Model umożliwia użycie wszystkich lub niektórych elementów algorytmicznych z różną mocą. Kluczową rolę odgrywają pewne rozkłady prawdopodobieństwa, co do których czyni się zazwyczaj jedno założenie, że są one silnie większe od zera, ale profilują w zasadniczy sposób jakąś instancję. Drugą sprawą jest wyjaśnienie, dlaczego ten formalizm używa agentów. Inspiracją było pojawienie się przed kilkunastu laty tzw. algorytmów memetycznych. Twórcy tego pomysłu, grupa hiszpańska, prof. Cotta i prof. Moscato, sami uznali, że najlepszym sposobem sformalizowania tego podejścia jest wprowadzenie abstrakcji agenta, czyli rozwiązania mającego pewne indywidualne cechy, zamiast osobnika. Dr Byrski wprowadził energię jako tę indywidualną cechę. Trzecia sprawa -- tak naprawdę była mowa o dwóch rodzajach zbieżności. Pierwsza, to jest zbieżność miar próbkowania, która została udowodniona dla tego typu algorytmu. Jest to konsekwencja twierdzenia o ergodyczności, tzn. że układ ergodyczny ma miarę stacjonarną. Daje to tylko asymptotyczną gwarancję sukcesu, że taki algorytm na pewno znajdzie rozwiązanie, nie jest jednak wiadome jak szybko to nastąpi. Druga zbieżność, tzw. zbieżność globalna być może najbardziej precyzyjnie została sformułowana przez prof. Rudolpha w latach 90, określając ją jako osiągnięcie przez próbę losową lub przynajmniej jeden element populacji odpowiednio głębokiego zbioru poziomicowego. Tego typu zbieżność nie była analizowana przez Habilitanta, nie było to przedmiotem jego badań. Jeśli chcemy policzyć dla danego zadania statystykę takiej zbieżności, np. wartość oczekiwaną liczby kroków, w takim przypadku łańcuch markowowski będzie potrzebny do przeprowadzenia takich oszacowań. Prof. Schaefer wspomniał, że prace tego typu prowadzone są głównie w grupie prof. Rudolpha, podając przykład liczenia first hitting time dla modelu wyspowego, który był zawarty w jednej z cytowanych przez Habilitanta prac (autorstwa prof. Rudolpha i dr Sudholta). W pracy tej najpierw budowany jest model markowowski, a potem liczone jest w oparciu o funkcję tranzycji prawdopodobieństwo trafienia w ten zbiór. Takie oszacowanie jest bardzo proste dla najprostszego algorytmu Markowa. 12 Dr hab. inż. Wiesław Ludwin Prof. Ludwin poprosił o omówienie sposobu opracowywania wyników i odniósł się do zamieszczonych w pracy wykresów. Profesor zapytał o użycie takich wielkości jak średnie, estymatory średnich, estymator niepewności średniej lub odchylenie standardowe. Pytający podkreślił trudność w odbiorze prezentowanych zagadnień i zwrócił uwagę na precyzję języka. Prof. Ludwin zauważył, że 1000 wymiarów przekracza wymagania stawiane problemom technicznym. Habilitant odparł, że wszystkie wyniki eksperymentalne zaprezentowane w monografii były rezultatem działania dedykowanych systemów. Ze względu na niedeterminizm badanych metod eksperymenty były powtarzane. Każdy zamieszczony w monografii eksperyment (za wyjątkiem kilku) był powtarzany 30 razy, było wyliczane odchylenie standardowe, średnia oraz w kilku miejscach były rysowane tak zwane wykresy „box and wiskers”, gdzie zaznaczono medianę i kwartyle. Na pytanie, czy były uwzględniane przedziały ufności, Habilitant potwierdził. Odpowiedź została przyjęta. Prof. dr hab. inż. Witold Dzwinel Odnosząc się do kwestii 1000 wymiarów problemu, prof. Dzwinel zwrócił uwagę, że przestrzenie fazowe są praktycznie nieskończenie wiele wymiarowe. Jeśli weźmiemy milion cząstek, które oddziałują ze sobą, to można policzyć liczbę wymiarów dla optymalizacji takiej przestrzeni fazowej. Tysiąc wymiarów nawet jeśli chodzi o analizę „big data” to jest niewiele. Przykładowo mikromacierz ma 50000 genów. Przy rozpatrywaniu zagadnień uczenia maszynowego dla „big data” uwzględnia się dziesiątki tysięcy wymiarów. Następnie padło pytanie do Habilitanta: prośba o skomentowanie hipotezy ergodyczności i jej złamania. Habilitant odparł, że w pracy jest mowa o ergodyczności modelu Markowa. Dla łańcucha Markowa, czyli takiego procesu stochastycznego, w którym prawdopodobieństwo przejścia do kolejnego stanu zależy tylko od poprzedniego stanu systemu, ergodyczność oznacza, że każdy stan tego modelu może być osiągnięty. Dzięki temu, że istnieje możliwość modelowania za pomocą tego typu aparatu obliczeń ewolucyjnych, już od czasu Michaela Vose’a można być bliskim pewności, że algorytm genetyczny może osiągnąć każdy swój stan przy odpowiednio zdefiniowanym modelu Markowa. Prof. Dzwinel zwrócił uwagę, że jest to bardzo uogólniona definicja ergodyczności. Ergodyczność wiąże się z układami dynamicznymi, z pewnymi średnimi wielkości makroskopowych po czasie i mikrostanami, manifoldami w przestrzeni fazowej. Jeżeli potraktujemy funkcję wielowymiarową jako manifold przestrzeni wielofazowej dla zadanej energii E, to możemy rozumieć, że w przypadku ergodyczności każdy element powierzchni tego manifoldu jest odwiedzany przez trajektorię zbudowaną na zasadzie łańcucha Markowa z prawdopodobieństwem proporcjonalnym do właśnie tej powierzchni. Generalnie, gdy chodzi o poszukiwanie minimum globalnego, należy się liczyć raczej ze złamaniem zasady ergodyczności niż z jej utrzymaniem. Zasada ergodyczności musi być zachowana, żeby algorytm mógł powiązać wszystkie elementy tej przestrzeni, natomiast sam 13 problem polega na udowodnieniu, że niektóre części tej przestrzeni, nieinteresujące nas z punktu widzenia optymalizacji, nie będą odwiedzane. Generalnie, w przyszłości należy dążyć do udowodnienia złamania tej zasady, kosztem udowodnienia lokowania się trajektorii markowowskich w interesujących dziedzinach poszukiwania funkcji. Habilitant odparł, że kwestię tę rozumie także jako problem zachowania równowagi między eksploracją i eksploatacją. System nie powinien się koncentrować tylko na jednym z tych aspektów, zachowując równowagę między nimi, możemy być przekonani, że uda się odnaleźć ekstremum globalne. Odpowiedź została przyjęta. Prof. dr hab. inż. Robert Schaefer (komentarz) Prof. Schaefer odniósł się do definicji ergodyczności. Jego zdaniem ergodyczność jest związana z pojęciem stochastycznego układu dynamicznego, jakim jest prosty stacjonarny łańcuch Markowa, w którym funkcja tranzycji nie zmienia się wraz z krokiem, w innym przypadku trudno jest mówić o ergodyczności. Istnieje zasadnicza różnica między sposobem definiowania tej własności dla przestrzeni stanów ciągłych i dyskretnych. Odnosząc się do habilitacji, całe to postępowanie dowodowe i wnioski z niego płynące odnosiły się do dyskretnego i skończonego zbioru stanów, gdzie efekt ergodyczności jest silniejszy. Można osiągnąć każdy stan w skończonej licznie kroków. Ta silna ergodyczność jest równa korespondencji stanów, czyli dokładnie temu, co zostało już powiedziane: przejście między każdymi dwoma stanami jest możliwe w skończonej liczbie kroków z niezerowym prawdopodobieństwem. To, o czym mówił profesor Dzwinel, być może raczej odnosi się do sytuacji, gdy mamy nieskończoną przestrzeń stanów i wtedy tak mocny wniosek nie jest możliwy. Warto odnieść się do definicji ergodyczności z monografii Borowkowa, gdzie przestrzeń stanów dzielimy w dowolnym kroku łańcucha na dwie części. Aktualnie stan łańcucha jest w jednej części i definicja mówi, że proces jest ergodyczny, jeśli w skończonej liczbie kroków przejdziemy do tej drugiej części ze skończonym prawdopodobieństwem, przy dowolnym podziale. To jest jednak istotna różnica. Dr hab. inż. Bogdan Kwolek Prof. Kwolek spytał Habilitanta, czy prowadził on też prace w zakresie optymalizacji dynamicznej, a w szczególności, czy były też realizowane prace z podaniem dowodu dla tego typu algorytmów optymalizacji. Habilitant odparł, że nie koncentrował się na optymalizacji dynamicznej, ale udało mu się przeprowadzić pewne badania w tej dziedzinie, w monografii odpowiednia praca jest cytowana. Ponadto w monografii jest cytowana praca teoretyczna traktująca o udowodnieniu ergodyczności w przypadku dynamicznym, taki dowód Habilitant przeprowadził wraz z prof. Schaeferem i opublikował jako rozszerzenie istniejącego formalizmu. Badane systemy są w stanie zmierzyć się z takimi problemami, zostało to również udowodnione z punktu widzenia formalnego. 14 Odpowiedź została przyjęta. Prof. dr hab. inż. Witold Dzwinel Prof. Dzwinel poprosił Habilitanta o podanie różnic między podejściem agentowym, jakie jest stosowane w rozprawie, a podejściem cząsteczkowym znajdowania optymalnego rozwiązania, w którym zamiast agentów mamy cząsteczki, próbne rozwiązania, które oddziałują ze sobą. Chodzi tutaj o algorytmy używane do znajdowania optimum układów dynamicznych cząstek, oddziałujących ze sobą w polu opisanym przez daną funkcję. W swojej odpowiedzi Habilitant podał metody rojowe jako przykłady takich algorytmów. W podejściach tych poszczególne elementy oddziaływują ze sobą, zachowując się jak roje ptaków, czy ławice ryb podążając w kierunku lokalnego lidera, czy sąsiadów, zachowując pewne minimalne odległości między sobą. Można upodobnić podejście agentowe do tych metod rojowych wprowadzając różnego rodzaju siatki określające sąsiedztwo między agentami i takie prace też były prowadzone, aczkolwiek nie na szerszą skalę. W początkowych pracach Habilitanta nie było żadnej relacji sąsiedztwa między agentami, agent mógł spotkać dowolnego agenta. Obecnie agent jest osadzony na siatce, porusza się po niej i spotyka tylko lokalnych sąsiadów, więc występują podobieństwa z metodami, których dotyczyło pytanie. Habilitant zauważył, że w jego systemie szczególny nacisk jest położony na agentowość, czyli np. na autonomiczność jego poszczególnych elementów. W rojach, o których mówił prof. Dzwinel, jest to określone odpowiednimi równaniami, w przypadku systemów agentowych każdy agent może podjąć sam decyzję co ma zrobić, z kim się spotkać, gdzie ma się poruszyć, gdzie migrować, czy ma się reprodukować. Agent ma kilka możliwości w danym momencie, może podjąć odpowiednie decyzje, może także wykorzystać algorytmy z dziedziny machine learning, żeby się nauczyć odpowiedniego reagowania. Takim przykładem, nad którym były prowadzone prace, było wykorzystanie metodologii LEM, zaproponowanej przez nieżyjącego już profesora Michalskiego, polegającej na integracji podejścia z dziedziny machine learning z obliczeniami ewolucyjnymi. Odpowiedź została przyjęta. Ze względu na brak dalszych głosów w dyskusji, Dziekan poprosił Habilitanta o opuszczenie sali oraz ogłosił rozpoczęcie części niejawnej posiedzenia. Wobec braku głosów ze strony Rady, na wniosek Dziekana odbyło się tajne głosowanie nad przyjęciem kolokwium habilitacyjnego. Dziekan poprosił dr hab. inż. Marka Natkańca oraz dr hab. inż. Piotra Faliszewskiego do komisji skrutacyjnej. Wyniki głosowania nad przyjęciem kolokwium habilitacyjnego Uprawnionych do głosowania: 38 Obecnych według listy obecności: 28 Oddano głosów: 27 Głosów za: 27 Głosów przeciw: 0 Głosów wstrzymujących się: 0 Głosów nieważnych: 0 15 Po przyjęciu przez Radę Wydziału kolokwium habilitacyjnego, Dziekan otworzył drugą część posiedzenia poświęconą wykładowi habilitacyjnemu. Spośród trzech zaproponowanych tematów: Temat nr 1: Ewolucyjne sieci neuronowe Temat nr 2: Katastrofa statku „Vasa” z punktu widzenia inżynierii oprogramowania Temat nr 3: Sztuczne systemy immunologiczne w problemach klasyfikacji w wyniku jawnego głosowania wybrany został temat nr 2, za którym głosowało 26 osób. Za tematem 1. głosowała 1 osoba, zaś za tematem 3. głosowało 0 osób. Habilitant wygłosił 15–minutowy wykład nt. „Katastrofa statku Vasa z punktu widzenia inżynierii oprogramowania” 10 sierpnia 1628 roku zatonął szwedzki okręt wojenny Vasa w trakcie swojego dziewiczego rejsu, po przepłynięciu ok 1300 metrów w porcie macierzystym - Sztokholmie. Zginęły 53 osoby. Budowa tego statku była najdroższym szwedzkim przedsięwzięciem wojennym w tym czasie. Okazuje się, że badania przeprowadzone nad genezą tej katastrofy pozwalają na wyciągnięcie szeregu ponadczasowych wniosków odnośnie prowadzenia projektów inżynierskich. W szczególności wnioski te przekładają się na problemy często występujące w trakcie tworzenia projektów programistycznych. W ramach wykładu, przedstawiona została historia i przyczyny katastrofy oraz zidentyfikowane zostały problemy interesujące z punktu widzenia inżynierii oprogramowania. Na końcu podano odpowiednie strategie zapobiegawcze. Dziekan podkreślił, że wykład ma zaprezentować umiejętność wykładania, a jego temat jest sprawą drugorzędną i nie musi być związany z daną dziedziną nauki, niemniej jednak dopuścił do krótkiej dyskusji i zadawania pytań do wykładu. Pytania dotyczyły głównie przyczyn historycznych katastrofy oraz finału losu statku Vasa. Po ponownym opuszczeniu sali obrad przez Habilitanta, Dziekan poprosił Recenzentów o ocenę dorobku naukowego, dydaktycznego i organizacyjnego dr. inż. Aleksandra Byrskiego. Dr hab. inż. Jarosław Arabas oceniając dorobek naukowy, dydaktyczny i organizacyjny Habilitanta skupił się na punktach mających kluczowe znaczenie dla jego oceny. Recenzent przytoczył ilościową ocenę dorobku naukowego: publikacje w czasopismach w liczbie 21, 7 rozdziałów w książkach, z czego większość stanowią materiały konferencyjne wydawane w renomowanych seriach wydawniczych oraz 36 artykułów na konferencjach krajowych i zagranicznych. Większość artykułów opublikowanych w czasopismach ukazała się w przeciągu ostatnich trzech lat, część z nich natomiast nie ukazała się jeszcze drukiem, ale została zaakceptowana. Biorąc powyższe fakty pod uwagę, Recenzent z uznaniem odniósł się do współczynnika Hirscha wynoszącego 4 wg. Web of Science. O pozycji naukowej Habilitanta pośrednio świadczy także uczestnictwo w licznych grantach NCBiR i zaproszenia do recenzji dla prestiżowych czasopism, w tym IEEE, European Journal of Evolutionary Research, Applied Mathematics and Computer Science. Charakteryzując publikacje Habilitanta, Recenzent stwierdził, że większość publikowanych prac ma charakter współautorski, z podobnym zbiorem autorów, związanych z zespołem naukowym, w którym działa Habilitant. Z przedstawionej listy publikacji wynika, 16 że wkład Habilitanta w tych publikacjach jest znaczący, w przeważającej mierze większościowy. Habilitant wykazał się także dużą aktywnością w obszarze organizacji nauki, przede wszystkim współorganizując kilka konferencji (w tym jedną z kilku najważniejszych konferencji poświęconych algorytmom ewolucyjnym) jak również pełniąc rolę sekretarza w czasopiśmie Computer Science. Podsumowując prof. Arabas uznał, że dorobek dr. inż. Aleksandra Byrskiego świadczy o jego dojrzałości naukowej, spełnia wymagania stawiane przy nadaniu stopnia doktora habilitowanego, a jego aktywność naukowa i organizacyjna jest w ocenie Recenzenta ponadprzeciętna. Recenzent ocenił z uznaniem także działalność dydaktyczną Habilitanta. We wniosku końcowym Recenzent stwierdził, że rozprawa habilitacyjna i dorobek naukowy spełniają wymagania stawiane przez ustawę, a także przez dobry obyczaj naukowy, wnosząc o dopuszczenie dr. inż. Aleksandra Byrskiego do dalszych etapów przewodu habilitacyjnego. Dr hab. inż. Roman Galar zapowiedział, że skupi się na konkluzji. Dorobek dr inż. Aleksandra Byrskiego uznał za znaczący. Recenzent podkreślił konsekwencję Habilitanta w rozwijaniu wybranej klasy metod agentowych i w poszukiwaniu możliwości ich aplikacji. Przegląd dorobku publikacyjnego wskazuje, że dr Byrski działa w ramach dobrze już wykształconej szkoły naukowej, która wypracowuje coraz lepszą pozycję międzynarodową. Daje się też dostrzec jego działania na rzecz inicjacji młodych adeptów do prac naukowych. Widoczna jest niewątpliwa sprawność funkcjonowania dr. Byrskiego w ramach współczesnej organizacji nauki i szkolnictwa wyższego tak w kraju jak i za granicą. Konkluzja recenzji jest podobna – zarówno monografia jak i dorobek naukowy uzasadniają przekonanie, że dr inż. Aleksander Byrski jest dojrzałym badaczem, który spełnia wszystkie wymogi formalne i merytoryczne ustawy, w efekcie Recenzent złożył wniosek do Komisji Rady Wydziału Informatyki, Elektroniki i Telekomunikacji AGH o dopuszczenie dr Byrskiego do kolokwium habilitacyjnego. Prof. dr hab. inż. Franciszek Seredyński zwrócił uwagę na 8 publikacji z listy filadelfijskiej, jego zdaniem w bardzo dobrych czasopismach, co nie jest sytuacją typową, ale ponadprzeciętną. Prace konferencyjne, były wydawane przez dobre wydawnictwa typu Springer, jak też IOS Press, lub Elsevier. Recenzent zwrócił uwagę na stale rosnący wskaźnik Hirscha, obecnie już równy 5 według Web of Science, oraz na rosnącą liczbę cytowań, tj. 16 według Web of Science, 78 według ArNetMiner. Habilitant był zapraszany do komitetów programowych konferencji oraz pełnił funkcje recenzenta w znanych czasopismach takich jak European Journal of Operational Research, IEEE Transactions on Parallel Systems i szeregu innych. Jeśli chodzi o inne aspekty dorobku, Habilitant opiekował się 33 dyplomantami, kilka z tych prac było wyróżnionych na konkursach ogólnopolskich, prowadził zajęcia dla doktorantów na uniwersytecie w Modenie i uczestniczył aktywnie w programie Erasmus. Recenzent uważa, że dorobek Habilitanta zasługuje na uznanie, świadczy o dojrzałym warsztacie naukowym i wszechstronnej aktywności organizacyjnej. Całość dorobku spełnia wymogi odpowiedniej ustawy i Recenzent wnosi o dopuszczenie Habilitanta do następnych etapów procedury. Prof. dr hab. inż. Witold Dzwinel podkreślił fakt publikowania przez Habilitanta artykułów w dobrych czasopismach jak Cluster Computing, International Journal of Applied Mathematics and Computer Science, Bulletin of the Polish Academy of Science: Technical Sciences, za bardziej odpowiednie dla części publikacji uznał jednak inne czasopisma, takie jak Evolutionary Computation, IEEE Transactions on Evolutionary Computing, które lepiej wpisują się w tematykę badań i są adresowane do bardziej odpowiedniego środowiska 17 naukowego. Lepszy dobór czasopism mógłby przynieść wzrost cytowań. Do publikacji konferencyjnych Recenzent nie miał zastrzeżeń, prace były przedstawiane na tak poważnych konferencjach naukowych jak IEEE Congress on Evolutionary Computation, International Conference on Computational Science, European Conference on Modelling and Simulation, International Conference on Parallel Problem Solving from Nature. Recenzent zaznaczył rolę, jaką pełni dr Byrski jako redaktor czasopisma Computer Science, wydawanego na AGH, na wydziale IEiT. W ciągu kilku lat stworzył on z niego dobrze prowadzone, o wysokim poziomie naukowym, czasopismo naukowe, mające ambicje znaleźć się wśród czasopism z Listy Filadelfijskiej. Główny redaktor czasopisma, prof. Kitowski, podkreśla olbrzymią rolę i zasługi dr. Byrskiego dla rozwoju czasopisma. Habilitant był także jednym z edytorów książki wydawnictwa Springer z serii Studies in Computational Intelligence oraz zbioru artykułów pokonferencyjnych. Podsumowując sylwetkę naukową Habilitanta Recenzent stwierdził, że dorobek oraz wykaz przedmiotów prowadzonych przez Habilitanta wskazują jednoznacznie, że jest on informatykiem o doskonałym przygotowaniu merytorycznym, związanym z dziedziną symulacji wieloagentowych, systemów równoległych i rozproszonych oraz metodami i algorytmami inteligencji obliczeniowej. Dr Byrski posiada ważne cechy samodzielnego pracownika naukowego: entuzjazm, dużą liczba publikacji naukowych oraz sporą aktywność konferencyjną, umiejętności organizacyjne oraz otwartość na nowe idee, szeroki horyzont naukowy charakteryzujący się umiejętnościami analitycznego i matematycznego myślenia połączony z doskonałą znajomością rzemiosła informatycznego. Liczba publikacji indeksowanych w bazie Web of Science oraz Scopus znacząco rośnie w ostatnich latach. Biorąc pod uwagę dyscyplinę nauki, dziedzinę, w której lokują się indeksowane publikacje oraz wiek habilitanta, wyniki biometryczne (w tym wartość indeksu Hirsha) można oceniać jako akceptowalne w przypadku wniosku o stopień doktora habilitowanego. Recenzent uznał, że dorobek naukowy Habilitanta jest wystarczający pod względem tak ilościowym jak i jakościowym w stosunku do wymagań stawianych dla uzyskania stopnia doktora habilitowanego nauk technicznych w specjalności Informatyka. Biorąc pod uwagę wysoką ocenę zarówno monografii jak i dorobku, Recenzent wnioskował o dopuszczenie pana dr. Aleksandra Byrskiego do dalszych faz przewodu habilitacyjnego. Dziekan potwierdził, że dr Aleksander Byrski jest bardzo aktywny organizacyjnie, chętnie i z dużym zaangażowaniem realizuje prace, które są mu powierzane. Wobec braku dalszych głosów w dyskusji, została ona zamknięta i przystąpiono do tajnego głosowania nad nadaniem dr. inż. Aleksandra Byrskiego stopnia naukowego doktora habilitowanego z dziedziny nauk technicznych w dyscyplinie Informatyka. Wyniki głosowania nad nadaniem stopnia naukowego doktora habilitowanego Uprawnionych do głosowania: 38 Obecnych według listy obecności: 28 Oddano głosów: 27 Głosów za: Głosów przeciw: Głosów wstrzymujących się: Głosów nieważnych: 27 0 0 0 18 Wobec pozytywnego wyniku głosowania, Pan Dziekan prof. dr hab. Tadeusz Pisarkiewicz, stwierdził, że Rada Wydziału Informatyki, Elektroniki i Telekomunikacji podjęła uchwałę o nadaniu dr Aleksandrowi Byrskiemu stopnia naukowego doktora habilitowanego nauk technicznych w dyscyplinie Informatyka i po wejściu Habilitanta oficjalnie przekazał mu tę wiadomość. Dziekan pogratulował dr hab. inż. Aleksandrowi Byrskiemu. W końcowym słowie dr hab. Aleksander Byrski złożył podziękowania Panu Dziekanowi, Recenzentom, Wysokiej Radzie oraz najbliższym współpracownikom za stworzenie dobrej i twórczej atmosfery pracy. W związku z wyczerpaniem porządku obrad, Dziekan zamknął posiedzenie Rady Naukowej Wydziału Informatyki, Elektroniki i Telekomunikacji AGH. Dnia 5.12.2013