Wykaz dorobku opublikowanego w latach 2005
Transkrypt
Wykaz dorobku opublikowanego w latach 2005
Wykaz dorobku opublikowanego w latach 2005-2012 dr inż. Marek Landowski 1. 2. 3. 1. 1. Rok 2012 M. Landowski, A. Piegat, Optimal estimator of hypothesis probability for data mining problems with small samples, Int. J. Appl. Math. Comput. Sci., Vol. 22, No. 3, 2012, s. 629-645. streszczenie: summary: The paper presents a new (to the best of the authors’ knowledge) estimator of probability called the “Ep hsqrt2 completeness estimator” along with a theoretical derivation of its optimality. The estimator is especially suitable for a small number of sample items, which is the feature of many real problems characterized by data insufficiency. The control parameter of the estimator is not assumed in an a priori, subjective way, but was determined on the basis of an optimization criterion (the least absolute errors).The estimator was compared with the universally used frequency estimator of probability and with Cestnik’s m-estimator with respect to accuracy. The comparison was realized both theoretically and experimentally. The results show the superiority of the Ephsqrt2 completeness estimator over the frequency estimator for the probability interval ph ∈ (0.1, 0.9). The frequency estimator is better for ph ∈ [0, 0.1] and ph ∈ [0.9, 1]. słowa kluczowe: key words: single-case problem, probability, probability estimation, frequency interpretation of probability, completeness interpretation of probability, uncertainty theory. M. Landowski, A. Piegat, Is the conventional interval arithmetic correct?, Journal of Theoretical and Applied Computer Science, Vol. 6, No. 2, 2012, s. 27–44. streszczenie: summary: Interval arithmetic as part of interval mathematics and Granular Computing is unusually important for development of science and engineering in connection with necessity of taking into account uncertainty and approximativeness of data occurring in almost all calculations. The mostly used conventional Moore-arithmetic has evident weak-points. These weak-points are well known, but nonetheless it is further on frequently used. The paper presents basic operations of RDM-arithmetic that does not possess faults of Moore-arithmetic. The RDM-arithmetic is based on multidimensional approach, the Moore-arithmetic on one-dimensional approach to interval calculations. słowa kluczowe: key words: interval arithmetic, RDM-interval arithmetic, multi-dimensional interval arithmetic, interval mathematics, interval analysis, granular computing, artificial intelligence M. Landowski, A. Landowska, Zastosowanie wybranych modeli optymalizacji dynamicznej struktury produkcji roślinnej w przeciętnym gospodarstwie rolnym, Folia Pomer. Univ. Technol. Stetin., Oeconomica 297 (68), Szczecin 2012, s. 47-54. streszczenie: summary: The article presents results of application of three decisions models for optimization of plants production structure in typical agricultural farm. Conditions that connect every year of production include crop rotation. Correct crop rotation is very important to obtain the highest crop. słowa kluczowe: model produkcji roślinnej, optymalizacja dynamiczna, zasada optymalności. key words: dynamic optimization, model of plants production, optimal rule. Rok 2011 M. Landowski, A. Piegat, Nowy estymator prawdopodobieństwa hipotez Eph1 i wyniki badań jego dokładności, Metody Informatyki stosowanej nr 1/2011(26), s. 93-106. streszczenie: W nauce powszechnie stosowany jest częstościowy estymator prawdopodobieństwa fr h=nh/n. W literaturze naukowej wykazano wiele wad tego estymatora. W artykule przedstawiona została nowy (wg. wiedzy autorów), kompletnościowy estymator prawdopodobieństwa, który wstępnie oznaczono jako Ep h1. Przeprowadzone eksperymenty porównujący nowy estymator z estymatorem częstościowym wykazały jego identyczną dokładność w zakresie dużej liczby próbek oraz znacznie wyższą dokładność w zakresie małej liczby próbek n<25. Ponieważ z małą liczbą danych często mamy do czynienia w problemach praktycznych, to stosowanie nowego estymatora wydaje się być bardzo korzystne. summary: The frequency estimator of probability frh=nh/n is widely used in science. However, scientists discovered many weak points of this estimator and therefore proposed a few other interpretations of probability that differ form the frequency interpretation. In this paper a new (according to authors’ knowledge) completeness estimator of probability, denoted as Ep h1, is proposed. Computer experiments realized by authors for comparative aims shown identical accuracy of the new estimator Eph1 and frequency estimator frh for large numbers of samples and a considerably higher accuracy of Ep h1 estimator for small numbers of samples n<25. Because with insufficient small number of samples we often have to do in practical problems therefore application of the new estimator seems very useful and recommendable. słowa kluczowe: prawdopodobieństwo, estymator prawdopodobieństwa, interpretacja częstościowa prawdopodobieństwa, interpretacja kompletnościowa prawdopodobieństwa key words: probability, probability estimator, frequency interpretation of probability, completeness interpretation of probability Rok 2010 M. Landowski, A. Piegat, Should we use a uniform prior in probabilistic decision making?, Foundations of 2. 1. 2. Computing and Decision Sciences, Vol. 35 (2010), No. 1, s. 43-61. streszczenie: summary: In probabilistic decision-making and diagnostics problems solved with the use of Bayes’ theorem and in Bayes’ networks if a priori distribution of probability density is not known the uniform distribution is assumed to determine the working, approximate solution of the problem. However, in many practical problems experts possess some qualitative knowledge about a priori distribution, e.g. the distribution is unimodal (one maximum) or it is unimodal right-asymmetric one, etc. It was explained in the paper that in such cases we need not unconditionally use the uniform distribution but we may use other types of distributions which better correspond to our qualitative knowledge and to the reality. However, to determine a priori distribution compatible with our qualitative knowledge we have to calculate the approximate, average, limit distribution the AAL-distribution of an infinitely large number of all possible distributions that possess the given qualitative feature, e.g., which are unimodal and right-asymmetrical ones. Is it possible at all? In the paper it was shown that it is possible if a special method conceived by one of the authors, the method of event-granulation diminution (GD-method) is applied. With this method the Readers themselves can determine their own limit distribution of all possible distributions which possess required qualitative features. The paper gives 3 such distributions determined by one of the authors that can directly be used in problems. It was also shown that the uniform distribution itself is the average, limit distribution of an infinite number of all possible distributions. According to the authors’ knowledge the presented concept of the average, safe distribution is new in the scientific literature. słowa kluczowe: key words: probability theory, decision-making, diagnostic problems, artificial intelligence, Bayes’ theorem, Bayes’ networks, uniform a-priori distribution, automatic reasoning, uncertainty theory. M. Landowski, A. Piegat, Average Prior Distribution of All Possible Probability Density, Advances in Intelligent and Soft Computing, Springer-Verlag Berlin Heidelberg 2010, rozdział w j. ang., s. 181-190. streszczenie: summary: Bayes’ rule is universally applied in artificial intelligence and especially in Bayes reasoning, Bayes networks, in decision–making, in generating rules for probabilistic knowledge bases. However, its application requires knowledge about a priori distribution of probability or probability density that frequently is not given. Then, to find at least an approximate solution to a problem, the uniform a priori distribution is used. Do we always have to use this distribution? The paper shows that it is not true. The uniform prior should only be used if there is no knowledge about the real distribution. If however, we possess certain qualitative knowledge, e.g. that the real distribution is the unimodal one, or that its expected value is less than 0.5, then we can use this knowledge and apply a priori distribution being the average distribution of all possible unimodal distributions, instead of the uniform distribution. As a result we will usually get better approximation of the problem solution and will avoid large approximation errors. The paper explains the concept of average distributions and shows how they can be determined with a special method of granulation diminution of elementary events and probability. słowa kluczowe: key words: data mining, automated reasoning, Bayes rule, probability theory Rok 2009 Average Individual Classification Probability Function (Przeciętna indywidualna funkcja prawdopodobieństwa klasyfikacji), Elektronika, nr 11/2009, Warszawa 2009, s. 12-15 streszczenie: Jednym z głównych zadań sztucznej inteligencji jest stworzenie sztucznego komputerowego mózgu realizującego sztuczne myślenie bazujące na konceptach lingwistycznych. Podstawą realizacji tego zadania jest opracowanie modelu ludzkich percepcji wyrażonego w formie kwantyfikatorów lingwistycznych. Artykuł prezentuje metodę tworzenia przeciętnej indywidualnej funkcji prawdopodobieństwa klasyfikacji. Funkcja ta przedstawia funkcję klasyfikacji przeciętnej indywidualnej osoby w grupie (populacji). Według wiedzy autorów przeciętna indywidualna funkcja prawdopodobieństwa klasyfikacji jest nowością w literaturze światowej. summary: One of the main tasks of artificial intelligence is the creation of artificial computer brain able to realize artificial thinking based on linguistic concept. The basis of the realization of this task is the working out of models of human perception expressed in the form of linguistic quantifiers. The article presents the method of finding average individual classification probability function. The function is to present classification function of the average person in the group (population). According to the authors’ knowledge average individual classification probability function are the novelty in the word literature. słowa kluczowe: teoria prawdopodobieństwa, model probabilistyczny, przeciętna indywidualna funkcja prawdopodobieństwa klasyfikacji, koncept lingwistyczny key words: probability theory, probabilistic model, average individual classification probability function, linguistic concept Surmounting Information Gaps Using Average Probability Density Function (Pokonywanie luk informacyjnych za pomocą przeciętnej funkcji gęstości prawdopodobieństwa), Pomiary Automatyka Kontrola, Vol. 55, nr 10/2009, Warszawa 2009, s. 793-795 streszczenie: summary: In many problems we come across the lack of complete data. The information gap causes that the task seems to be unsolvable. In many cases where the Bayes’ networks or Bayes’ rule are used, we come across the information gap which is the lack of a priori distribution. The article presents the methods of identifying the average probability density distribution when we know the range of variable and we have some quality knowledge on the distribution. The obtained average probability density distribution minimizes medium squared error. According to the authors’ knowledge the average 1. 2. 1. 1. probability density distribution is the novelty in the word literature. słowa kluczowe: key words: Bayes' networks, information gaps, principle of indifference, uncertainty theory, artificial intelligence, probability theory Rok 2008 Bayes' Rule, Principle of Indifference, and Safe Distribution. Artificial Intelligence and Soft Computing – ICAISC 2008, Lecture Notes in Computer Science, Springer, vol. 5097, Germany 2008, p. 661-670 streszczenie: summary: Bayes' rule is basis of probabilistic reasoning. It enables to surmount information gaps. However, it requires knowledge of prior distributions of probabilistic variables. If this distribution is not known then, according to the principle of indifference, the uniform distribution has to be assumed. The uniform distribution is frequently and heavy criticized. The paper presents a safe distribution of probability density that often can be used instead of the uniform distribution to surmount information gaps. According to the authors' knowledge the concept of the safe distribution is new and unknown in the literature. słowa kluczowe: key words: Bayes' rule, principle of indifference, prior probability distribution, Bayes' networks, automated reasoning Wykłady z matematyki dla studentów studiów inżynieryjno-ekonomicznych (A Lecture on Mathematics for Engineering and Economics Study), Wyd. AM, Szczecin 2008, 203 s. streszczenie: Skrypt przeznaczony jest dla studentów studiów inżynieryjno-ekonomicznych dziennych i zaocznych, a w szczególności studentów Wydziału Inżynieryjno-Ekonomicznego Transportu Akademii Morskiej w Szczecinie. Zawiera on podstawowe pojęcia z zakresu elementów matematyki wyższej, niezbędne do dalszego toku studiów. Celem autorów było podanie wiadomości z wymienionego zakresu w formie jak najbardziej przystępnej i przystosowanej do samodzielnego studiowania. summary: słowa kluczowe: matematyka, studia ekonomiczne, wykłady key words: mathematics, economics study, lectures Rok 2007 Artificial Neural Network for Identification of Qualification Probability Function of Linguistic Concept (Sztuczna sieć neuronowa do identyfikacji funkcji prawdopodobieństwa zaklasyfikowania do konceptu lingwistycznego), 14th International Conference on ACS 2007, Pol. J. of Envi. Stud., Vol. 16, No. 5B, 2007, s. 40-44 streszczenie: summary: One of the main tasks of the artificial intelligence is creating artificial computer brain able to carrying out artificial thinking based on words. The basis of this task realization is working out of models of words. The creation of the word model with the use of the function of qualification probability defining the proper concept on the basis of experimentally gained empirical data is the subject of this article. The main focus is on description of proposed method of creating the qualification function of linguistic quantifier based on the artificial neural network. słowa kluczowe: key words: qualification function, artificial neural networks, probability, artificial intelligence, automatic thinking Rok 2006 Propozycja metody tworzenia funkcji przynależności. Roczniki Informatyki Stosowanej WI PS, nr 10, Szczecin 2006, s. 273-278 streszczenie: Stworzenie modelu funkcji przynależności określającego odpowiednią wielkość na podstawie otrzymanych danych empirycznych jest ważnym krokiem w wielu aplikacjach wykorzystujących teorię zbiorów rozmytych. W pracy przedstawiono kilka najczęściej stosowanych funkcji przynależności. Głównie skupiono się na omówieniu zaproponowanej funkcji przynależności powstałej z wielomianu stopnia trzeciego. summary: słowa kluczowe: funkcja przynależności, zbiór rozmyty, wielomian, aproksymacja key words: