PN-ISO/IEC 2382-34
Transkrypt
PN-ISO/IEC 2382-34
POLSKA NORMA Polski Komitet Normalizacyjny PN-ISO/IEC 2382-34 grudzień 2002 Technika informatyczna Terminologia Część 34: Sztuczna inteligencja – Sieci neuronowe Information technology – Vocabulary – Part 34: Artificial intelligence – Neural networks © Copyright by PKN, Warszawa 2002 Hologram PKN Wszelkie prawa autorskie zastrzeżone. Żadna część niniejszej normy nie może być zwielokrotniana jakąkolwiek techniką bez pisemnej zgody Prezesa Polskiego Komitetu Normalizacyjnego ABSTRAKT NORMY Podano, w języku polskim i angielskim, 72 terminy i definicje podstawowych terminów dotyczące sieci neuronowych. Dołączono wykaz odpowiedników tych terminów w języku francuskim. Terminy sklasyfikowano w następujące grupy (w nawiasach podano liczbę terminów w grupie): pojęcia ogólne (10), sieci neuronowe i ich elementy (41), połączenia i funkcje (21). TŁUMACZENIE ABSTRAKTU Presents, in English and in Polish, 72 terms and definitions of basic concepts related to neural networks. The set of equivalents of these terms in French is enclosed. The terms are classified in the following groups (in brackets the number of items is given): general concepts (10), neural networks and their components (41), connections and functions (21). Norma opracowana w Normalizacyjnej Komisji Problemowej nr 170 ds. Terminologii Informatycznej i Kodowania Informacji Pierwsze wydanie normy (rok) i lata kolejnych nowelizacji .................................................................................. Zmiany wprowadzone do normy Numer zmiany Data wprowadzenia grudzień 2002 POLSKA NORMA PN-ISO/IEC 2382-34 POLSKI KOMITET NORMALIZACYJNY Technika informatyczna Terminologia Część 34: Sztuczna inteligencja – Sieci neuronowe Zamiast: ICS 01.040.35;35.020 ISO/IEC 2382-34:1999, IDT PRZEDMOWA KRAJOWA Niniejsza norma jest przedrukiem angielskiej wersji dwujęzycznej (angielsko-francuskiej) normy międzynarodowej ISO/IEC 2382-34:1999, wydanie pierwsze, uzupełnionym tłumaczeniem na język polski i jest wydana jako identyczna z wprowadzoną normą międzynarodową. Norma międzynarodowa ISO/IEC 2382-34:1999 jest 34. częścią wieloczęściowej normy ISO/IEC 2382. Do końca 1994 roku poszczególne części normy międzynarodowej ISO 2382 wprowadzano do Polskich Norm jako arkusze PN-T-01016 pod wspólnym tytułem: Przetwarzanie informacji i komputery – Terminologia. Od 1995 roku polskie wersje poszczególnych części ISO/IEC 2382 mają wspólny numer PN-ISO/IEC 2382 i wspólny tytuł: Technika informatyczna – Terminologia. Od 1999 roku poszczególne części normy międzynarodowej ISO/IEC 2382 wprowadza się do Polskich Norm jako normy dwujęzyczne, angielsko-polskie, w celu ułatwienia stosowania ujednoliconego polskiego słownictwa z dziedziny informatyki. Ze względu na takie zastosowanie normy starano się zachować dużą wierność tłumaczenia w stosunku do oryginału, uwzględniając jednocześnie, w miarę możliwości, zachowanie słownictwa już przyjętego w dotychczas wydanych częściach (arkuszach) Polskiej Normy. W normie są stosowane odsyłacze krajowe oznaczone N1) i N2). Norma zawiera dwa załączniki krajowe (NA i NB) informacyjne, których treścią jest wykaz norm powołanych w normie międzynarodowej i ich krajowych odpowiedników oraz wykaz terminów francuskich. nr ref. PN-ISO/IEC 2382-34:2002 Ustanowiona przez Polski Komitet Normalizacyjny dnia 18 grudnia 2002 r. (Uchwała nr 55/2002-o) NORMA MIĘDZYNARODOWA ISO/IEC 2382-34 INTERNATIONAL STANDARD NORME INTERNATIONALE Wydanie pierwsze 1999-08-15 Wersja polska Technika informatyczna – Terminologia – Część 34: Sztuczna inteligencja – Sieci neuronowe Information technology – Vocabulary – Part 34: Artificial intelligence – Neural networks Technologies de l’information – Vocabulaire – Partie 34: Intelligence artificielle – Réseaux neuronaux nr ref. ISO/IEC 2382-34:1999 (E/F) PN-ISO/IEC 2382-34:2002 3 Niniejsza norma jest polską wersją normy międzynarodowej ISO/IEC 2382-34:1999. Została ona przedrukowana z tłumaczeniem przez Polski Komitet Normalizacyjny i ma ten sam status co wersje oficjalne. Information technology – Vocabulary – Technika informatyczna – Part 34: Artificial intelligence – Neural networks Część 34: Section 1: General Dział 1: Postanowienia ogólne 1.1 1.1 Scope Terminologia – Sztuczna inteligencja – Sieci neuronowe Zakres This part of ISO/IEC 2382 is intended to facilitate international communication in artificial intelligence. It presents, in two languages, terms and definitions of selected concepts relevant to the field of information technology and identifies relationships among the entries. Niniejsza część normy ISO/IEC 2382 ma ułatwić porozumiewanie się w dziedzinie sztucznej inteligencji w skali międzynarodowej. Podano w niej, w dwóch językach, terminy i definicje wybranych pojęć związanych z techniką informatyczną oraz określono powiązania między nimi. In order to facilitate their translation into other languages, the definitions are drafted so as to avoid, as far as possible, any peculiarity attached to a language. W celu ułatwienia tłumaczenia na inne języki, definicje zostały tak opracowane, aby uniknąć, jeżeli jest to możliwe, jakiejkolwiek specyfiki związanej z językiem. This part of ISO/IEC 2382 defines concepts in artificial intelligence related to neural networks, their components, connections and functions. W niniejszej części normy ISO/IEC 2382 zdefiniowano terminy z dziedziny sztucznej inteligencji odnoszące się do sieci neuronowych, ich elementów, połączeń i funkcji. 1.2 1.2 Normative references The following standards contain provisions which, through reference in this text, constitute provisions of this part of ISO/IEC 2382. At the time of publication, the editions indicated were valid. All standards are subject to revision, and parties to agreements based on this part of ISO/IEC 2382 are encouraged to investigate the possibility of applying the most recent editions of the standards indicated below. Members of IEC and ISO maintain registers of currently valid International Standards. Normy powołane N1) Wymienione niżej normy zawierają postanowienia, które — przez powołanie się (na daną normę) w treści niniejszej normy — stają się również postanowieniami niniejszej części normy ISO/IEC 2382. W momencie publikacji niniejszej części normy międzynarodowej podane niżej wydania norm były aktualne. Ponieważ jednak wszystkie normy podlegają nowelizacji, strony zawierające umowy na podstawie niniejszej części ISO/IEC 2382 zachęca się do zbadania możliwości zastosowania najnowszego wydania wymienionych niżej norm. Rejestry aktualnych norm międzynarodowych prowadzą członkowie IEC i ISO N2). N1) Odsyłacz krajowy: Patrz załącznik krajowy NA. Odsyłacz krajowy: W Polsce rejestr aktualnych norm międzynarodowych prowadzi Ośrodek Informacji i Dokumentacji Biura Polskiego Komitetu Normalizacyjnego w Warszawie. N2) PN-ISO/IEC 2382-34:2002 4 ISO/IEC 2382-1:1993 1), Information technology – Vocabulary – Part 1: Fundamental terms ISO/IEC 2382-1:19931), Information technology – Vocabulary – Part 1: Fundamental terms ISO/IEC 2382-12:19881), Information technology – Vocabulary – Part 12: Peripheral equipment ISO/IEC 2382-12:19881), Information technology – Vocabulary – Part 12: Peripheral equipment ISO/IEC 2382-28:1995, Information technology – Vocabulary – Part 28: Artificial intelligence – Basic concepts and expert systems ISO/IEC 2382-28:1995, Information technology – Vocabulary – Part 28: Artificial intelligence – Basic concepts and expert systems ISO/IEC 2382-31:1997, Information technology – Vocabulary – Part 31: Artificial intelligence – Machine learning ISO/IEC 2382-31:1997, Information technology – Vocabulary – Part 31: Artificial intelligence – Machine learning 1.3 1.3 1.3.1 Principles and rules followed Definition of an entry 1.3.1 Zasady opracowywania terminologii Definicja hasła terminologicznego Section 2 comprises a number of entries. Each entry consists of a set of essential elements that includes an index number, one term or several synonymous terms, and a phrase defining one concept. In addition, an entry may include examples, notes or illustrations to facilitate understanding of the concept. Dział 2 zawiera hasła terminologiczne. Każde hasło terminologiczne składa się ze zbioru elementów podstawowych, który zawiera numer indeksowy, jeden termin lub kilka terminów stanowiących synonimy oraz opis definiujący to pojęcie. W celu ułatwienia zrozumienia dodatkowo mogą być podane przykłady, uwagi lub rysunki. Occasionally, the same term may be defined in different entries, or two or more concepts may be covered by one entry, as described in 1.3.5 and 1.3.8 respectively. Niekiedy ten sam termin może być zdefiniowany w różnych hasłach terminologicznych, a także dwa pojęcia lub kilka pojęć może być objętych jednym hasłem terminologicznym, tak jak to opisano odpowiednio w 1.3.5 i 1.3.8. Other terms such as vocabulary, concept, term, and definition are used in this part of ISO/IEC 2382 with the meaning defined in ISO 1087. Terminy takie jak słownik, pojęcie, termin i definicja są stosowane w niniejszej części ISO/IEC 2382 w znaczeniach zdefiniowanych w ISO 1087. 1.3.2 1.3.2 Organization of an entry Budowa hasła terminologicznego Each entry contains the essential elements defined in 1.3.1 and, if necessary, additional elements. The entry may contain the following elements in the following order: Każde hasło terminologiczne składa się z elementów podstawowych zdefiniowanych w 1.3.1 i, jeżeli to konieczne, z elementów dodatkowych. Hasło terminologiczne może zawierać następujące elementy w podanej kolejności: a) an index number (common for all languages in which this part of ISO/IEC 2382 is published); a) numer indeksowy (taki sam we wszystkich językach, w których niniejsza część ISO/IEC 2382 jest publikowana); b) the term or the generally preferred term in the language. The absence of a generally preferred term for the concept in the language is indicated by a symbol consisting of five dots (.....); a row of dots may be used to indicate, in a term, a word to be chosen in each particular case; b) podany termin lub termin powszechnie przyjęty w danym języku. Brak powszechnie przyjętego terminu danego pojęcia w danym języku zaznacza się symbolem składającym się z pięciu kropek (.....); szereg kropek może być użyty do oznaczenia w terminie miejsca wyrazu właściwego dla każdego szczególnego przypadku; 1) 1) Currently under revision. Obecnie w nowelizacji. PN-ISO/IEC 2382-34:2002 5 c) the preferred term in a particular country (identified according to the rules of ISO 3166); c) termin preferowany w danym kraju (identyfikowanym zgodnie z zasadami podanymi w ISO 3166); d) the abbreviation for the term; d) skrót terminu; e) permitted synonymous term(s); e) dozwolone synonimy terminu(-ów); f) the text of the definition (see 1.3.4); f) tekst definicji (patrz 1.3.4); g) one or more examples with the heading „Example(s)”; g) jeden przykład lub kilka przykładów z nagłówkiem „Przykład(-y)”; h) one or more notes specifying particular cases in the field of application of the concepts with the heading „NOTE(S)”; h) jedna uwaga lub kilka uwag określających szczególne przypadki zastosowania tych pojęć, z nagłówkiem „UWAGA(-I)”; i) a picture, a diagram, or a table which could be common to several entries. i) rysunek, wykres lub tablica, które mogą być wspólne dla kilku haseł terminologicznych. 1.3.3 1.3.3 Classification of entries Klasyfikacja haseł terminologicznych A two-digit serial number is assigned to each part of ISO/IEC 2382, beginning with 01 for „Fundamental terms”. Każdej części ISO/IEC 2382 jest przypisany dwucyfrowy numer porządkowy, rozpoczynając od numeru 01 „Terminy podstawowe”. The entries are classified in groups to each of which is assigned a four-digit serial number, the first two digits being those of the part of ISO/IEC 2382. Hasła terminologiczne sklasyfikowano w grupy; każdej grupie przypisano czterocyfrowy numer porządkowy; dwie pierwsze cyfry wskazują odpowiednią część ISO/IEC 2382. Each entry is assigned a six-digit index number, the first four digits being those of the part of ISO/IEC 2382 and the group. Każde hasło terminologiczne ma przypisany sześciocyfrowy numer indeksowy; cztery pierwsze cyfry wskazują odpowiednią część ISO/IEC 2382 i odpowiednią grupę. To show the relationship between versions of ISO/ IEC 2382 in various languages, the numbers assigned to parts, groups, and entries are the same for all languages. W celu zachowania zgodności między wersjami ISO/IEC 2382, opracowanymi w różnych językach, numery przypisane częściom, grupom i hasłom terminologicznym pozostawia się takie same we wszystkich wersjach językowych. 1.3.4 1.3.4 Selection of terms and wording of definitions Wybór terminów i formułowanie definicji The selection of terms and the wording of definitions have, as far as possible, followed established usage. Where there were contradictions, solutions agreeable to the majority have been sought. Wybór terminów i słownictwa zastosowanego w definicjach wynika, tak dalece jak jest to możliwe, z powszechnie stosowanej terminologii językowej. W przypadkach kontrowersyjnych przyjęto sformułowania uznawane przez większość. 1.3.5 1.3.5 Multiple meanings When, in one of the working languages, a given term has several meanings, each meaning is given a separate entry to facilitate translation into other languages. Wieloznaczność terminu Jeżeli termin podany w jednym ze stosowanych tu języków ma kilka znaczeń, to każdemu znaczeniu przypisano oddzielne hasło terminologiczne w celu ułatwienia tłumaczenia na inne języki. PN-ISO/IEC 2382-34:2002 6 1.3.6 Abbreviations 1.3.6 Skróty As indicated in 1.3.2, abbreviations in current use are given for some terms. Such abbreviations are not used in the texts of the definitions, examples or notes. Zgodnie z 1.3.2, niektóre terminy uzupełniono stosowanymi skrótami. Skróty takie nie są stosowane w tekstach definicji, przykładów i uwag. 1.3.7 1.3.7 Use of parentheses Stosowanie nawiasów okrągłych In some terms, one or more words printed in bold typeface are placed between parentheses. These words are part of the complete term, but they may be omitted when use of the abridged term in a technical context does not introduce ambiguity. In the text of another definition, example, or note of ISO/IEC 2382, such a term is used only in its complete form. W niektórych terminach wyraz lub wyrazy drukowane półgrubą czcionką są umieszczone w nawiasach okrągłych. Wyrazy te są częścią pełnego terminu, ale mogą być pominięte, jeśli użycie skróconego terminu w kontekście technicznym nie wprowadza niejednoznaczności. W tekście innej definicji, w przykładzie lub uwadze w ISO/IEC 2382 taki termin jest stosowany tylko w pełnej postaci. In some entries, the terms are followed by words in parentheses in normal typeface. These words are not a part of the term but indicate directives for the use of the term, its particular field of application, or its grammatical form. W niektórych hasłach terminologicznych przyjęty termin uzupełnia się wyrazami drukowanymi typową czcionką, zawartymi w nawiasach okrągłych. Wyrazy te nie stanowią części terminu, ale wskazują jak należy go stosować, jaki jest konkretny zakres zastosowania tego terminu lub jaka jest jego forma gramatyczna. 1.3.8 1.3.8 Use of brackets Stosowanie nawiasów kwadratowych When several closely related terms can be defined by texts that differ only in a few words, the terms and their definitions are grouped in a single entry. The words to be substituted in order to obtain the different meanings are placed in brackets, i.e. [ ], in the same order in the term and in the definition. To clearly identify the words to be substituted, the last word that according to the above rule could be placed in front of the opening bracket is, wherever possible, placed inside the bracket and repeated for each alternative. Jeśli kilka ściśle ze sobą związanych terminów można zdefiniować za pomocą tekstów różniących się tylko kilkoma wyrazami, to terminy te i ich definicje są zgrupowane w jednym haśle terminologicznym. Wyrazy, które powinny być zastąpione po to, aby uzyskać różne znaczenia, są umieszczone w nawiasach kwadratowych [ ], w tej samej kolejności w terminie i definicji. Aby uniknąć wątpliwości dotyczących zastępowania wyrazów, ostatni wyraz występujący zgodnie z powyższą regułą przed nawiasem otwierającym może być, w miarę możliwości, umieszczony również wewnątrz nawiasu i powtórzony w każdym przypadku. 1.3.9 1.3.9 Use of terms printed in italic typeface in definitions and the use of an asterisk Stosowanie kursywy do terminów występujących w definicjach oraz stosowanie gwiazdki A term printed in italic typeface in a definition, an example, or a note is defined in another entry in ISO/IEC 2382, which may be in another part. However, the term is printed in italic typeface only the first time it occurs in each entry. Termin drukowany kursywą, występujący w definicji, przykładzie lub uwadze, jest zdefiniowany jako odrębne hasło terminologiczne w tej lub innej części ISO/IEC 2382. Termin taki jest drukowany kursywą tylko wtedy, gdy występuje w danym haśle pierwszy raz. Italic typeface is also used for other grammatical forms of a term, for example, plurals of nouns and participles of verbs. Kursywę stosuje się również do innych form gramatycznych terminu, na przykład rzeczowników liczby mnogiej i imiesłowów. PN-ISO/IEC 2382-34:2002 7 The basic forms of all terms printed in italic typeface which are defined in this part of ISO/IEC 2382 are listed in the index at the end of the part (see 1.3.11). Podstawowe formy wszystkich terminów drukowanych kursywą, które są zdefiniowane w tej części ISO/ IEC 2382, podano w indeksie zamieszczonym na końcu niniejszej części (patrz 1.3.11). An asterisk is used to separate terms printed in italic typeface when two such terms are referred to in separate entries and directly follow each other (or are separated only by a punctuation mark). Gwiazdkę stosuje się do oddzielenia dwu odrębnych terminów drukowanych kursywą, gdy występują bezpośrednio po sobie (lub gdy są oddzielone tylko znakiem interpunkcyjnym). Words or terms that are printed in normal typeface are to be understood as defined in current dictionaries or authoritative technical vocabularies. Wyrazy lub terminy drukowane typową czcionką powinny być rozumiane zgodnie z definicją podaną w aktualnych słownikach lub uznanych słownikach technicznych. 1.3.10 Spelling 1.3.10 Pisownia In the English language version of this part of ISO/IEC 2382, terms, definitions, examples, and notes are given in the spelling preferred in the USA. Other correct spellings may by used without violating this part of ISO/IEC 2382. W wersji angielskiej niniejszej części ISO/IEC 2382 terminy, definicje, przykłady i uwagi podano według pisowni stosowanej w USA. Inną pisownię można stosować bez naruszania zgodności z niniejszą częścią ISO/IEC 2382. 1.3.11 Organization of the alphabetical index 1.3.11 Struktura indeksu alfabetycznego For each language used, an alphabetical index is provided at the end of each part. The index includes all terms defined in the part. Multiple-word terms appear in alphabetical order under each of their key words. Indeks alfabetyczny zamieszcza się na końcu każdej części, niezależnie od wersji językowej. Zawiera on wszystkie terminy zdefiniowane w danej części. Terminy wielowyrazowe umieszcza się w kolejności alfabetycznej pod każdym ze słów kluczowych. PN-ISO/IEC 2382-34:2002 8 Section 2: Terms and definitions Dział 2: Terminy i definicje 34 34 34.01 Artificial intelligence – Neural networks General concepts 34.01 Sztuczna inteligencja – Sieci neuronowe Pojęcia ogólne 34.01.01 connectionism connection science An interdisciplinary approach to artificial intelligence where complex computations are carried out by a network of simple processing elements, each of which is connected to a great number of other elements, and which exchange simple messages, and where parallel processing occurs among a great number of such elements. 34.01.01 konekcjonizm Interdyscyplinarne podejście do sztucznej inteligencji, w którym złożone obliczenia realizowane są przez sieć prostych elementów przetwarzających, z których każdy jest połączony z wielką liczbą innych elementów i wymienia z nimi proste komunikaty tak, że zachodzi przetwarzanie równoległe przez wielką liczbę tych elementów. NOTE – Connectionism is inspired by the operation of biological neural systems such as the human brain. UWAGA – Inspiracją konekcjonizmu jest działanie biologicznych układów nerwowych, takich jak ludzki mózg. 34.01.02 connectionist model A computational model for intelligent activities in which pieces of information are collectively represented by a network of a great number of simple processing elements that communicate by exchanging simple messages, and complex computations are carried out through parallel processing distributed among a great number of such elements. 34.01.02 model konekcjonistyczny Model obliczeniowy dla inteligentnych działań, w którym informacje są kolektywnie reprezentowane przez sieć złożoną z prostych elementów przetwarzających, które komunikują się wymieniając proste komunikaty, zaś złożone obliczenia są realizowane przez przetwarzanie równoległe, rozproszone na wielkiej liczbie tych elementów. NOTE – Connectionist models are for instance applied in knowledge representation, * pattern recognition, * computer vision, * natural-language understanding, * learning (as defined in ISO/IEC 2382-31), and motion control. UWAGA – Modele konekcjonistyczne są stosowane na przykład w reprezentacji wiedzy, * rozpoznawaniu wzorców, * komputerowym widzeniu, * rozumieniu języka naturalnego, * uczeniu się (zgodnie z definicją w ISO/IEC 2382-31) oraz w sterowaniu ruchem. 34.01.03 subsymbolic representation A technique for knowledge representation that distributes the representation over a relatively large network rather than storing symbols directly. 34.01.03 reprezentacja subsymboliczna Technika reprezentacji wiedzy, w której wiedza jest rozproszona w stosunkowo dużej sieci, a nie zapamiętywana bezpośrednio w formie symboli. NOTE – In the connectionist model, the knowledge stored in the network is fragmented by using subsymbolic representation and cannot be easily expressed as simple rules or symbolic forms. UWAGA – W modelu konekcjonistycznym, wiedza przechowywana w sieci jest rozproszona za pomocą reprezentacji subsymbolicznej i nie może być łatwo wyrażona jako proste reguły lub symboliczne formuły. 34.01.04 heterarchy The structure of a system whose components can communicate directly with each other. 34.01.04 heterarchia Struktura systemu, którego składniki mogą się komunikować ze sobą bezpośrednio. 34.01.05 hierarchy The structure of a system whose components are ranked into levels of subordination for communication purposes according to specific rules. 34.01.05 hierarchia Struktura systemu, którego składniki są uporządkowane według określonych reguł w poziomy podrzędności pod względem wzajemnej komunikacji. PN-ISO/IEC 2382-34:2002 9 34.01.06 neural network neural net NN (abbreviation) artificial neural network ANN (abbreviation) A network of primitive processing elements connected by weighted links with adjustable weights, in which each element produces a value by applying a nonlinear function to its input values, and transmits it to the other elements or presents it as an output value. 34.01.06 sieć neuronowa NN (skrót) Sztuczna sieć neuronowa ANN (skrót) Sieć prostych elementów przetwarzających połączonych ważonymi łączami z modyfikowalnymi wagami, w której każdy element wytwarza wartość przez zastosowanie nieliniowej funkcji do wartości wejściowych i przesyła ją do innych elementów lub przedstawia jako wartość wyjściową. NOTES UWAGI 1 Whereas some neural networks are intended to simulate the functioning of neurons in the nervous system, most neural networks are used in artificial intelligence as realizations of the connectionist model. 1 Niektóre sieci neuronowe budowane są z myślą o symulowaniu działania neuronów w układzie nerwowym, jednakże większość sieci neuronowych w sztucznej inteligencji stanowi realizację modelu konekcjonistycznego. 2 Examples of nonlinear functions are a threshold function, a sigmoid function, and a polynomial function. 2 Przykładami funkcji nieliniowych są funkcja progowa, funkcja sigmoidalna oraz funkcja wielomianowa. 3 This entry is an improved version of the entry 28.01.22 in ISO/IEC 2382-28:1995. 3 Powyższa definicja stanowi poprawioną wersję definicji 28.01.22 z normy ISO/IEC 2382-28:1995. 34.01.07 artificial neuron neurode (deprecated) A primitive processing element in a neural network, with several inputs and one output, the output value of which is a nonlinear function of a linear combination of the input values with adjustable weighting coefficients. 34.01.07 sztuczny neuron Prosty element przetwarzający w sieci neuronowej mający kilka wejść i jedno wyjście, taki, że jego wartość wyjściowa jest nieliniową funkcją kombinacji liniowej wartości wejściowych o modyfikowalnych współczynnikach wagowych. NOTES UWAGI 1 Artificial neurons are modeled according to the functioning of neurons in the nervous system and are interconnected in order to exchange messages. 1 Sztuczne neurony są modelowane według działania neuronów w układzie nerwowym i są połączone w celu wymiany komunikatów. 2 Each artificial neuron is a node of the neural network, that cooperates and communicates with other neurons. A neural network can also have input nodes which are not artificial neurons. 2 Każdy sztuczny neuron jest węzłem sieci neuronowej, współdziałającym i komunikującym się z innymi neuronami. Sieć neuronowa może mieć także węzły wejściowe, które nie są sztucznymi neuronami. 34.01.08 neurocomputer neural computer A special-purpose computer built as a neural network. 34.01.08 neurokomputer komputer neuronowy Specjalistyczny komputer zaprojektowany jako sieć neuronowa. NOTE – The performance usually is measured in connection updates per second. UWAGA – Efektywność neurokomputera zwykle jest mierzona liczbą aktualizacji połączeń na sekundę. 34.01.09 neurochip A reconfigurable chip that implements all or part a neural-network model. 34.01.09 neuronowy układ scalony Rekonfigurowalny układ scalony implementujący całość lub część modelu sieci neuronowej. 10 PN-ISO/IEC 2382-34:2002 34.01.10 neural-network model An abstract model of a neural network that can be simulated in software or implemented as a neurocomputer. 34.01.10 model sieci neuronowej Abstrakcyjny model sieci neuronowej, który może być symulowany przez oprogramowanie bądź zaimplementowany jako neurokomputer. 34.02 34.02 Neural networks and their components Sieci neuronowe i ich elementy 34.02.01 source node A node of a neural network that supplies input * signals to artificial neurons. 34.02.01 węzeł źródłowy Węzeł * sieci neuronowej, który dostarcza sygnały * wejściowe do sztucznych neuronów. 34.02.02 input neuron An artificial neuron that receives signals from external sources. 34.02.02 neuron wejściowy Sztuczny neuron, który otrzymuje sygnały z zewnętrznych źródeł. 34.02.03 output neuron An artificial neuron that sends signals to an external system. 34.02.03 neuron wyjściowy Sztuczny neuron, który przesyła sygnały do układu zewnętrznego. 34.02.04 visible neuron An artificial neuron that directly communicates with external systems. 34.02.04 neuron widoczny Sztuczny neuron, który komunikuje się z układami zewnętrznymi bezpośrednio. NOTE – A visible neuron may be an input neuron, an output neuron, or both. UWAGA – Neuron widoczny może być neuronem wejściowym, * neuronem wyjściowym lub obydwoma. 34.02.05 hidden neuron An artificial neuron that does not directly communicate with external systems. 34.02.05 neuron ukryty Sztuczny neuron, który nie komunikuje się bezpośrednio z układami zewnętrznymi. 34.02.06 layer (in neural networks) In a hierarchically organized neural network, a group of artificial neurons whose outputs may connect to neurons in a group toward the output of the network but not to neurons in a group back toward the input of the network. 34.02.06 warstwa (w sieciach neuronowych) W hierarchicznie zorganizowanej sieci neuronowej, grupa sztucznych neuronów, których wyjścia mogą łączyć się z neuronami z grupy znajdującej się bliżej wyjścia sieci, ale nie mogą łączyć się z neuronami z grupy znajdującej się bliżej wejścia sieci. NOTE – Artificial neurons of the same layer may have connections among them. UWAGA – Sztuczne neurony z tej samej warstwy mogą być połączone pomiędzy sobą. 34.02.07 input layer A layer whose artificial neurons receive signals from external sources. 34.02.07 warstwa wejściowa Warstwa, której sztuczne neurony otrzymują sygnały z zewnętrznych źródeł. NOTE – By extension, the term “input layer” is also used for a group of source nodes. UWAGA – W szerszym znaczeniu termin „warstwa wejściowa” jest stosowany także w stosunku do grupy węzłów źródłowych. PN-ISO/IEC 2382-34:2002 11 34.02.08 output layer decision layer A layer whose artificial neurons send signals to an external system. 34.02.08 warstwa wyjściowa warstwa decyzyjna Warstwa, której sztuczne neurony przesyłają sygnały do układu zewnętrznego. 34.02.09 visible layer A layer whose nodes directly communicate with external systems. 34.02.09 warstwa widoczna Warstwa, której węzły komunikują się z układami zewnętrznymi bezpośrednio. 34.02.10 hidden layer A layer whose artificial neurons do not directly communicate with external systems. 34.02.10 warstwa ukryta Warstwa, której sztuczne neurony nie komunikują się bezpośrednio z układami zewnętrznymi. 34.02.11 bottleneck layer The hidden layer that forces a neural network to develop a compact representation of the input data. 34.02.11 warstwa wąskiego gardła Warstwa ukryta, która w sieci neuronowej wymusza zwartą reprezentację danych wejściowych. 34.02.12 slab A group of artificial neurons that share the same activation function and learning rule, and that have equivalent interconnection topologies. 34.02.12 płytka Grupa sztucznych neuronów, które mają taką samą funkcję aktywacji i regułę uczenia się oraz mają równoważne topologie połączeń. NOTE – Slabs may be interconnected in a hierarchical fashion but other architectures may also occur. UWAGA – Płytki mogą być połączone w sposób hierarchiczny, ale możliwe są także inne architektury. 34.02.13 layered network A neural network whose artificial neurons are hierarchically organized in layers. 34.02.13 sieć warstwowa Sieć neuronowa, której sztuczne neurony są uporządkowane hierarchicznie w warstwy. NOTE – A layered network may have a distinct group of source nodes in addition to the layers of artificial neurons. UWAGA – Sieć warstwowa oprócz warstw sztucznych neuronów może zawierać także osobną grupę węzłów źródłowych. 34.02.14 nonlayered network A neural network whose artificial neurons are not organized in layers. 34.02.14 sieć niewarstwowa Sieć neuronowa, której sztuczne neurony nie są uporządkowane w warstwy. 34.02.15 single-layered network A layered network having only source nodes and one output layer, without hidden layers. 34.02.15 sieć jednowarstwowa Sieć warstwowa złożona wyłącznie z węzłów źródłowych i jednej warstwy wyjściowej, bez warstw ukrytych. NOTE – In a single-layered network, only the output layer performs computation. UWAGA – W sieci jednowarstwowej obliczenia wykonuje wyłącznie warstwa wyjściowa. 34.02.16 multilayered network A layered network having at least two layers. 34.02.16 sieć wielowarstwowa Sieć warstwowa zawierająca co najmniej dwie warstwy. NOTE – A multilayered network may have a distinct group of source nodes in addition to the layers of artificial neurons. In this case there is at least one hidden layer. UWAGA – Sieć wielowarstwowa oprócz warstw sztucznych neuronów może zawierać także osobną grupę węzłów źródłowych. W tym przypadku sieć zawiera co najmniej jedną warstwę ukrytą. 12 PN-ISO/IEC 2382-34:2002 34.02.17 partially connected network diluted network A nonlayered network in which each artificial neuron is not necessarily connected to all the others, or a layered network in which each artificial neuron in a layer is not necessarily connected to all neurons in the adjacent forward layer. 34.02.17 sieć częściowo połączona sieć rozrzedzona Sieć niewarstwowa, w której nie każdy sztuczny neuron połączony jest ze wszystkimi innymi, lub sieć warstwowa, w której nie każdy sztuczny neuron w pewnej warstwie jest połączony ze wszystkimi neuronami w przyległej warstwie wyższej. 34.02.18 totally connected network fully connected network A nonlayered network in which each artificial neuron is connected to all the others, or a layered network in which each artificial neuron in a layer is connected to all neurons in the adjacent forward layer. 34.02.18 sieć połączona zupełnie sieć całkowicie połączona Sieć niewarstwowa, w której każdy sztuczny neuron jest połączony ze wszystkimi innymi, lub sieć warstwowa, w której każdy sztuczny neuron w każdej warstwie jest połączony ze wszystkimi neuronami w przyległej warstwie wyższej. 34.02.19 randomly connected network random network A neural network whose artificial neurons are connected at random. 34.02.19 sieć połączona losowo sieć losowa Sieć neuronowa, w której sztuczne neurony są połączone losowo. 34.02.20 weight-sharing network A neural network in which all artificial neurons in the same layer share the same connection weight vector. 34.02.20 sieć o wagach współdzielonych Sieć neuronowa, w której wszystkie sztuczne neurony w tej samej warstwie mają identyczny wektor wag połączeń. 34.02.21 stable state (in neural networks) The state in which the connection weights of all artificial neurons remain unchanged. 34.02.21 stan stabilny (w sieciach neuronowych) Stan, w którym wagi połączeń wszystkich sztucznych neuronów nie podlegają zmianom. NOTE – A stable state occurs generally when the weights remain unchanged with further training, but may also occur in normal functioning. such as in a Hopfield network. UWAGA – Stan stabilny pojawia się podczas trenowania, kiedy wagi przestają się zmieniać, ale może się pojawić także podczas normalnego działania, jak na przykład w sieci Hopfielda. 34.02.22 stable coalition A mutually excitatory group of artificial neurons that keep each other active during the stable state. 34.02.22 koalicja stabilna Grupa wzajemnie pobudzających się sztucznych neuronów, które podtrzymują swą aktywność nawzajem w stanie stabilnym. 34.02.23 synchronous neural network A neural network in which all artificial neurons are simultaneously updated. 34.02.23 synchroniczna sieć neuronowa Sieć neuronowa, w której wszystkie sztuczne neurony są aktualizowane jednocześnie. 34.02.24 asynchronous neural network A neural network in which the artificial neurons are not updated simultaneously but, for example, at random or in some organized sequence. 34.02.24 asynchroniczna sieć neuronowa Sieć neuronowa, w której sztuczne neurony nie są aktualizowane jednocześnie, lecz na przykład losowo lub w ustalonej kolejności. PN-ISO/IEC 2382-34:2002 13 34.02.25 feedforward network forward-propagation network acyclic network A multilayered network with no feedback paths nor any paths between artificial neurons within a given layer. 34.02.25 sieć jednokierunkowa sieć acykliczna Sieć wielowarstwowa bez łączy wstecznych i bez łączy między sztucznymi neuronami wewnątrz tej samej warstwy. Example: Multilayered perceptron. Przykład: Perceptron wielowarstwowy. NOTE – This term is sometimes used to designate any layered network. UWAGA – Niekiedy termin ten jest używany w znaczeniu dowolnej sieci warstwowej. 34.02.26 recurrent network A neural network in which the connections between artificial neurons form at least one feedback loop. 34.02.26 sieć rekurencyjna Sieć neuronowa, w której połączenia między sztucznymi neuronami tworzą przynajmniej jedną pętlę sprzężenia zwrotnego. Examples: Hopfield network,* Boltzmann machine. Przykłady: Sieć Hopfielda, * maszyna Boltzmanna. NOTE – A nonlayered network is a recurrent network. A layered network is recurrent if there are connections between neurons within a given layer or connections from a given neuron to a neuron in a layer back toward the input. UWAGA – Sieć niewarstwowa jest siecią rekurencyjną. Sieć warstwowa jest rekurencyjna, jeśli istnieją połączenia między neuronami w tej samej warstwie lub połączenia od pewnego neuronu położonego głębiej do neuronu znajdującego się bliżej wejścia. 34.02.27 single-layer perceptron simple perceptron perceptron A neural network consisting of one artificial neuron, with a binary * output value that is determined by applying a monotonic function to a linear combination of the input values and with error-correction learning. 34.02.27 perceptron jednowarstwowy perceptron prosty perceptron Sieć neuronowa, w której stosowane jest uczenie się korekcyjne, złożona z jednego sztucznego neuronu z wyjściem * binarnym, która otrzymywana jest przez zastosowanie funkcji monotonicznej do kombinacji liniowej wartości wejściowych. NOTES UWAGI 1 The single-layer perceptron forms two decision regions separated by a hyperplane. 1 Perceptron tworzy dwa regiony decyzyjne rozdzielone hiperpłaszczyzną. 2 For binary inputs values, the single-layer perceptron cannot implement the non-equivalence operation (EXCLUSIVE OR, XOR). 2 Dla binarnych wartości wejściowych perceptron jednowarstwowy nie może realizować operacji nierówności (WYŁĄCZNE LUB). 34.02.28 multilayered perceptron A feedforward network consisting of a group of source nodes, one or more hidden layers, and one output layer, and using a monotonic activation function. 34.02.28 perceptron wielowarstwowy Sieć jednokierunkowa złożona z grupy węzłów źródłowych, jednej warstwy ukrytej lub większej ich liczby i jednej warstwy wyjściowej, wykorzystująca monotoniczną funkcję aktywacji. NOTES UWAGI 1 Each artificial neuron in a multilayered perceptron is a single-layer perceptron. 1 W perceptronie wielowarstwowym każdy sztuczny neuron jest perceptronem jednowarstwowym. 2 Multilayered perceptrons can implement any Boolean function. 2 Perceptrony wielowarstwowe mogą realizować dowolną funkcję boolowską. 14 PN-ISO/IEC 2382-34:2002 34.02.29 radial basis function network RBF network A feedforward network in which each hidden neuron uses a radial basis function as the activation function and the output neurons implement linear combinations of these radial basis functions. 34.02.29 sieć radialnych funkcji bazowych sieć RBF Sieć jednokierunkowa, w której każdy neuron ukryty używa radialnej funkcji bazowej jako funkcji aktywacji a neurony wyjściowe implementują kombinacje liniowe tychże radialnych funkcji bazowych. 34.02.30 back-propagation network BPN (abbreviation) feedback-propagation network A multilayered network using back propagation for connection weights adjustment during learning. 34.02.30 sieć propagacji wstecznej BPN (skrót) Sieć wielowarstwowa wykorzystująca propagację wsteczną do modyfikowania wag połączeń w trakcie uczenia się. 34.02.31 self-organizing network A neural network having a self-organization capability. 34.02.31 sieć samoorganizująca się Sieć neuronowa mająca zdolność samoorganizacji. NOTE – A self-organizing network is often designed to emulate the brain cells’ ability to organize themselves into behavior or a pattern. UWAGA – Sieci samoorganizujące się są często projektowane tak, aby symulowały zdolność komórek mózgu do organizowania się we wzorce dynamiczne lub statyczne. 34.02.32 self-organizing map SOM (abbreviation) self-organizing feature map SOFM (abbreviation) Kohonen map A self-organizing network consisting of an output layer, generally two-dimensional, totally connected to the source nodes, and using competitive learning. 34.02.32 mapa samoorganizująca się SOM (skrót) samoorganizująca się mapa cech SOFM (skrót) mapa Kohonena Sieć samoorganizująca się złożona z warstwy wyjściowej, zwykle dwuwymiarowej, połączonej zupełnie z węzłami źródłowymi, wykorzystująca uczenie się konkurencyjne. 34.02.33 associative storage content-addressable storage associative memory A storage device able to recall the stored * pattern that matches an approximating or partial input pattern. 34.02.33 pamięć asocjacyjna pamięć skojarzeniowa pamięć adresowana treścią Urządzenie pamięciowe zdolne odtworzyć zapamiętany * wzorzec najlepiej odpowiadający przybliżonemu lub częściowemu wzorcowi wejściowemu. NOTES UWAGI 1 The input pattern can be a part or whole of the address or a pattern as defined in ISO/IEC 2382-28. 1 Wzorzec wejściowy może być częścią lub całością adresu wzorca lub samego wzorca w rozumieniu definicji z normy ISO/IEC 2382-28. 2 The recalled pattern may be the desired data itself or constitute a reference to it such as its address. 2 Odtworzony wzorzec może stanowić żądane dane lub adres będący wskaźnikiem do tych danych. 3 This entry is an improved version of the entry 12.02.27 in ISO/IEC 2382-12:1988. 3 Powyższe hasło stanowi poprawioną wersję hasła 12.02.27 z normy ISO/IEC 2382-12:1988. 34.02.34 Hopfield network crossbar associative network CAN (abbreviation) A totally connected network having only visible neurons that are cyclically updated until a stable state is obtained. 34.02.34 sieć Hopfielda CAN (skrót) Sieć połączona zupełnie zawierająca wyłącznie neurony widoczne, które są aktualizowane cyklicznie aż do osiągnięcia stanu stabilnego. PN-ISO/IEC 2382-34:2002 15 NOTES UWAGI 1 A Hopfield network has a finite number of stable states corresponding to local minimums of an energy function. During learning, the connection weights are adjusted so that the stable states correspond to the patterns to be stored. After applying an input pattern, the network evolves toward the closest stored pattern. 1 Sieć Hopfielda wykazuje skończoną liczbę stanów stabilnych odpowiadających minimom lokalnym funkcji energii. Podczas uczenia się, * wagi połączeń są zmieniane tak, że stany stabilne odpowiadają wzorcom do zapamiętania. Po przyłożeniu wzorca wejściowego stan sieci ewoluuje w kierunku najbliższego zapamiętanego wzorca. 2 A Hopfield network may be a synchronous neural network or an asynchronous neural network. 2 Sieć Hopfielda może być synchroniczną siecią neuronową lub asynchroniczną siecią neuronową. 3 The Hopfield network is mainly used as an associative storage but has also applications in optimization. 3 Sieci Hopfielda wykorzystywane są głównie jako pamięci asocjacyjne, ale są także stosowane w optymalizacji. 34.02.35 Boltzmann machine A totally connected network having both visible neurons and hidden neurons that are cyclically updated according to a probability distribution. 34.02.35 maszyna Boltzmanna Sieć połączona zupełnie zawierająca zarówno neurony widoczne, jak i neurony ukryte, które są aktualizowane cyklicznie zgodnie z pewnym rozkładem prawdopodobieństwa. NOTES UWAGI 1 During learning, some visible neurons are clamped onto specific states. 1 Podczas uczenia się niektóre stany neuronów widocznych są ustalone w formie narzuconych wartości. 2 There is some formal equivalence between statistical thermodynamics and the dynamic behavior of the Boltzmann machine. 2 Istnieje pewna odpowiedniość formalna miedzy termodynamiką statystyczną a dynamiką maszyny Boltzmanna. 34.02.36 adaptive resonance theory network ART network A neural network in which the learning algorithm updates the stored prototypes characterizing categories if the input* pattern is sufficiently similar to one of them, or otherwise creates a new category with the input as prototype. 34.02.36 sieć teorii rezonansu adaptacyjnego sieć ART Sieć neuronowa, w której algorytm uczenia się aktualizuje zapamiętane prototypy charakteryzujące kategorie, jeżeli wzorzec * wejściowy jest dostatecznie podobny do jednego z nich, w przeciwnym przypadku tworzona jest nowa kategoria, której prototypem jest aktualne wejście. NOTE – ART networks implement a compromise between plasticity (the ability to learn) and stability (no erasure or corruption of existing knowledge). UWAGA – Sieci ART realizują kompromis między plastycznością (zdolnością uczenia się) a stabilnością (zachowaniem dotychczasowej wiedzy). 34.02.37 winner-takes-all network A neural network in which the strongest artificial neuron in a layer may inhibit the others in the same layer. 34.02.37 sieć typu „wszystko dla zwycięzcy” Sieć neuronowa, w której najsilniej pobudzony sztuczny neuron w danej warstwie może powstrzymywać pobudzenie innych neuronów w danej warstwie. NOTE – A winner-takes-all network uses a type of competitive learning. UWAGA – Sieci typu „wszystko dla zwycięzcy” wykorzystują rodzaj uczenia się konkurencyjnego. 34.02.38 winner-takes-more network A neural network in which all competing artificial neurons with an input value above average may stay active. 34.02.38 sieć typu „więcej dla zwycięzcy” Sieć neuronowa, w której wszystkie sztuczne neurony z wartością wejściową większą niż średnia mogą pozostać pobudzone. NOTE – A winner-takes-more network uses a type of competitive learning. UWAGA – Sieci typu „więcej dla zwycięzcy” wykorzystują rodzaj uczenia się konkurencyjnego. 16 PN-ISO/IEC 2382-34:2002 34.02.39 adaptive neural network A neural network that is able to adjust its performance characteristics according to changes in its environment. 34.02.39 adaptacyjna sieć neuronowa Sieć neuronowa, która jest w stanie dostosować charakterystykę swojego działania do zmian w otoczeniu. 34.02.40 discrimination network A neural network in which the set of tests used to classify a collection of objects, situations, or events is implemented according to predetermined features. 34.02.40 sieć dyskryminacyjna Sieć neuronowa działająca jak zestaw testów do klasyfikacji zbioru obiektów, sytuacji lub zdarzeń w oparciu o wcześniej określone cechy. 34.02.41 hierarchical neural network hierarchical artificial neural network A neural network consisting of several stages of subnetworks, in which the processing occurs from one stage to the next. 34.02.41 hierarchiczna sieć neuronowa hierarchiczna sztuczna sieć neuronowa Sieć neuronowa złożona z kilku poziomów podsieci, w której zachodzi przetwarzanie pomiędzy poziomami. 34.03 Connections and functions 34.03 Połączenia i funkcje 34.03.01 neural connection neural link synaptic interconnection (deprecated) synaptic connection (deprecated) A link between two artificial neurons that is defined by the source neuron, the destination neuron, and a connection weight. 34.03.01 połączenie neuronowe łącze neuronowe łącze synaptyczne (nie zalecane) połączenie synaptyczne (nie zalecane) Łącze pomiędzy dwoma sztucznymi neuronami zdefiniowane przez podanie neuronu źródłowego, neuronu docelowego oraz wagi połączenia. 34.03.02 connection weight (in neural networks) connection strength synaptic weight (deprecated) A coefficient that multiplies an input value of a artificial neuron before it is combined with other input values. 34.03.02 waga połączenia (w sieciach neuronowych) waga synapsy (nie zalecane) Współczynnik mnożący wartość wejściową * sztucznego neuronu przed zagregowaniem jej z innymi wartościami wejściowymi. 34.03.03 dynamically programmable connection A neural connection whose connection weight may be modified dynamically. 34.03.03 połączenie dynamicznie programowalne Połączenie neuronowe, dla którego waga połączenia może być modyfikowana dynamicznie. 34.03.04 bundle A collection of neural connections between slabs. 34.03.04 wiązka Zbiór połączeń neuronowych pomiędzy płytkami. 34.03.05 learning (in neural networks) The process by which a neural network improves its performance by adjustment of its parameters in response to a succession of input* patterns. 34.03.05 uczenie się (w sieciach neuronowych) Proces, podczas którego sieć neuronowa doskonali swoje działanie przez modyfikowanie swoich parametrów w odpowiedzi na kolejne wzorce * wejściowe. NOTE – In general, learning consists in connection weights adjustment. UWAGA – Najczęściej uczenie się polega na modyfikowaniu wag połączeń. PN-ISO/IEC 2382-34:2002 17 34.03.06 learning algorithm (in neural networks) An algorithm that adjusts the parameters of a neural network during learning. 34.03.06 algorytm uczenia się (w sieciach neuronowych) Algorytm modyfikujący parametry sieci neuronowej podczas uczenia się. NOTE – In general, a learning algorithm adjusts the connection weights. UWAGA – Najczęściej algorytm uczenia się modyfikuje wagi połączeń. 34.03.07 connectionist learning Learning through changes in the connection weights of artificial neurons in a neural network. 34.03.07 uczenie się konekcjonistyczne Uczenie się poprzez zmiany wag połączeń pomiędzy sztucznymi neuronami w sieci neuronowej. 34.03.08 learning rate A parameter that regulates the magnitude of changes to connection weights during learning. 34.03.08 tempo uczenia się Parametr regulujący szybkość zmian wag połączeń podczas uczenia się. NOTE – The amount of change of a connection weight is the product of a value given by the learning algorithm and a coefficient which is the learning rate. UWAGA – Pojedyncza zmiana wagi połączenia jest iloczynem wartości wyznaczanej przez algorytm uczenia się oraz współczynnika wyrażającego tempo uczenia się. 34.03.09 self-organization The capability of an unsupervised learning * neural network to adjust its connection weights according to the features found in the input * patterns. 34.03.09 samoorganizacja Zdolność sieci neuronowej stosującej uczenie się bez nadzoru do modyfikowania swoich wag połączeń zgodnie z cechami znalezionymi we wzorcach * wejściowych. 34.03.10 error-correction learning Supervised learning using the error * signal, that is the difference between the desired output value and the actual output value, to modify the connection weights. 34.03.10 uczenie się korekcyjne Uczenie się z nadzorem wykorzystujące do modyfikacji wag połączeń * sygnał * błędu, to znaczy różnicę między pożądaną wartością wyjściową a rzeczywistą wartością wyjściową. 34.03.11 Hebbian learning Learning that increases the connection weight of a neural connection if the two artificial neurons are activated synchronously and decreases the connection weight if the neurons are activated asynchronously. 34.03.11 uczenie się metodą Hebba Uczenie się, w którym waga połączenia jest zwiększana dla danego połączenia neuronowego, jeżeli oba neurony są jednocześnie pobudzone, a zmniejszana, gdy neurony nie są pobudzone jednocześnie. NOTE – In the simplest case, the amount of change of the connection weight is proportional to the product of the two output values. UWAGA – W najprostszym przypadku zmiana wagi połączenia jest proporcjonalna do iloczynu obu wartości wyjściowych. 34.03.12 competitive learning Learning in which artificial neurons compete for the right to respond to a given subset of input *patterns. 34.03.12 uczenie się konkurencyjne Uczenie sie, w którym sztuczne neurony rywalizują o prawo odpowiedzi na dany podzbiór wzorców * wejściowych. NOTE – The response of a neuron to an input pattern tends to inhibit other neurons. UWAGA – Odpowiedź jednego z neuronów hamuje pobudzenie innych neuronów. 18 PN-ISO/IEC 2382-34:2002 34.03.13 activation function A function that computes the output value of an artificial neuron based o its input values and its current connection weights. 34.03.13 funkcja aktywacji funkcja pobudzenia Funkcja wyznaczająca wartość wyjściową * sztucznego neuronu w oparciu o jego wartości wejściowe oraz bieżące wagi połączeń. NOTE – The output value may be continuous or discrete. UWAGA – Wartość wyjściowa może być ciągła lub dyskretna. 34.03.14 radial basis function RBF (abbreviation) An activation function that is centered at a point specified by the connection weight vector and whose position and width are adjusted by learning. 34.03.14 radialna funkcja bazowa RBF (skrót) Funkcja aktywacji wycentrowana w punkcie określonym przez wagi połączeń, której pozycja i miara zasięgu są modyfikowane podczas uczenia się. NOTES UWAGI 1 In a radial basis function network, the radial basis functions are the activation functions of the hidden neurons, and constitute a basis set to represent the patterns. 1 W sieci radialnych funkcji bazowych, radialne funkcje bazowe są funkcjami aktywacji neuronów ukrytych i stanowią podstawę reprezentacji wzorców. 2 A radial basis function has a maximum or a minimum, in contrast with the usual activation functions that are monotonic. The most used radial basis function is the Gaussian function. 2 W przeciwieństwie do typowych funkcji aktywacji, które są monotoniczne, radialna funkcja bazowa ma maksimum lub minimum. Najpopularniejszą radialną funkcją bazową jest funkcja gaussowska. 34.03.15 connection updates per second CUPS (abbreviation) The number of neural connection updates per second in the learning mode. 34.03.15 liczba aktualizacji połączeń na sekundę CUPS (skrót) Liczba aktualizacji połączeń neuronowych na sekundę w trybie uczenia się. 34.03.16 feedforward propagation forward propagation In a multilayered network, the propagation of connection weights adjustment, layer by layer, from the input layer toward the output of the network. 34.03.16 propagacja prosta propagacja postępowa W sieci wielowarstwowej, propagacja zmian wag połączeń, przebiegająca warstwa po warstwie, począwszy od warstwy wejściowej w kierunku wyjścia sieci. NOTE – Not to be confused with feedforward network. UWAGA – Nie mylić terminu z terminem sieć jednokierunkowa. 34.03.17 back propagation feedback propagation In a multilayered network, the propagation of connection weights adjustment, layer by layer, from the output layer toward the input of the network. 34.03.17 propagacja wsteczna W sieci wielowarstwowej, propagacja zmian wag połączeń, przebiegająca warstwa po warstwie, począwszy od warstwy wyjściowej w kierunku wejścia sieci. NOTE – Typically back propagation is used in connection with error-correction learning. UWAGA – Zwykle propagacja wsteczna jest używana podczas uczenia się korekcyjnego. 34.03.18 training (in neural networks) A procedure for teaching a neural network to make an association between a sample of input values and the correct output values. 34.03.18 trenowanie (w sieciach neuronowych) Procedura nauczania sieci neuronowej, na podstawie próby, kojarzenia wartości wejściowych z poprawnymi wartościami wyjściowymi. PN-ISO/IEC 2382-34:2002 19 34.03.19 epoch (in neural networks) A sequence of training * patterns introduced into a neural network. 34.03.19 epoka (w sieciach neuronowych) Wprowadzenie ciągu wzorców treningowych do sieci neuronowej. 34.03.20 batch training Training in which the connection weights are adjusted only after each epoch is presented. 34.03.20 trenowanie wsadowe Trenowanie, w którym wagi połączeń są modyfikowane tylko po każdej epoce. 34.03.21 interactive training pattern training Training in which the connection weights are adjusted after each input * pattern is presented. 34.03.21 trenowanie interaktywne trenowanie wzorców Trenowanie, w którym wagi połączeń są modyfikowane po prezentacji każdego wzorca * wejściowego. PN-ISO/IEC 2382-34:2002 20 English alphabetical index A activation acyclic adaptive algorithm ANN ART artificial associative asynchronous activation function ........................ 34.03.13 acyclic network ........................... 34.02.25 adaptive resonance theory network ........................................ 34.02.36 adaptive neural network .............. 34.02.39 learning algorithm (in neural networks) .................... 34.03.06 ANN (abbreviation) ...................... 34.01.06 ART network ................................ 34.02.36 artificial neural network ............... 34.01.06 artificial neuron ............................ 34.01.07 hierarchical artificial neural network ........................................ 34.02.41 associative storage ..................... 34.02.33 associative memory ..................... 34.02.33 crossbar associative network .... 34.02.34 asynchronous neural network .... 34.02.24 B back back propagation ......................... 34.03.17 back-propagation back-propagation network .......... 34.02.30 basis radial basis function .................... 34.03.14 radial basis function network ...... 34.02.29 batch batch training ............................... 34.03.20 Boltzmann Boltzmann machine ...................... 34.02.35 bottleneck bottleneck layer ............................ 34.02.11 BPN BPN (abbreviation) ....................... 34.02.30 bundle bundle ........................................... 34.03.04 D decision diluted discrimination dynamically E epoch error-correction CAN (abbreviation) ...................... 34.02.34 stable coalition ............................. 34.02.22 competitive learning ..................... 34.03.12 neural computer ........................... 34.01.08 partially connected network ........ 34.02.17 totally connected network ........... 34.02.18 fully connected network .............. 34.02.18 randomly connected network ..... 34.02.19 connection connection science ..................... 34.01.01 neural connection ........................ 34.03.01 synaptic connection (deprecated) ................................ 34.03.01 connection weight (in neural networks) .................... 34.03.02 connection strength ..................... 34.03.02 dynamically programmable connection ................................... 34.03.03 connection updates per second ......................................... 34.03.15 connectionism connectionism .............................. 34.01.01 connectionist connectionist model ..................... 34.01.02 connectionist learning .................. 34.03.07 content-addressable content-addressable storage ...... 34.02.33 crossbar crossbar associative network .... 34.02.34 CUPS CUPS (abbreviation) .................... 34.03.15 epoch (in neural networks) ......... 34.03.19 error-correction learning ............. 34.03.10 F feature self-organizing feature map ........ 34.02.32 feedback feedback propagation .................. 34.03.17 feedback-propagation feedback-propagation network ........................................ 34.02.30 feedforward feedforward network .................. 34.02.25 feedforward propagation ............ 34.03.16 forward forward propagation ................... 34.03.16 forward-propagation forward-propagation network .... 34.02.25 fully fully connected network .............. 34.02.18 function radial basis function network ...... 34.02.29 activation function ........................ 34.03.13 radial basis function .................... 34.03.14 C CAN coalition competitive computer connected decision layer ............................... 34.02.08 diluted network ............................ 34.02.17 discrimination network ................. 34.02.40 dynamically programmable connection ................................... 34.03.03 H Hebbian heterarchy hidden hierarchical hierarchy Hopfield Hebbian learning .......................... 34.03.11 heterarchy ................................... 34.01.04 hidden neuron .............................. 34.02.05 hidden layer ................................. 34.02.10 hierarchical neural network ......... 34.02.41 hierarchical artificial neural network ........................................ 34.02.41 hierarchy ...................................... 34.01.05 Hopfield network .......................... 34.02.34 I input interactive interconnection input neuron ................................. 34.02.02 input layer .................................... 34.02.07 interactive training ........................ 34.03.21 synaptic interconnection (deprecated) ................................ 34.03.01 K Kohonen Kohonen map ............................... 34.02.32 PN-ISO/IEC 2382-34:2002 L layer layered learning link layer (in neural networks) ........... 34.02.06 input layer .................................... 34.02.07 output layer .................................. 34.02.08 decision layer ............................... 34.02.08 visible layer .................................. 34.02.09 hidden layer ................................. 34.02.10 bottleneck layer ............................ 34.02.11 single-layer perceptron ............... 34.02.27 layered network ........................... 34.02.13 single-layered network ................ 34.02.15 learning (in neural networks) ...... 34.03.05 learning algorithm (in neural networks) .................................... 34.03.06 connectionist learning .................. 34.03.07 learning rate ................................. 34.03.08 error-correction learning ............. 34.03.10 Hebbian learning .......................... 34.03.11 competitive learning ..................... 34.03.12 neural link ..................................... 34.03.01 M machine map memory model multilayered Boltzmann machine ...................... 34.02.35 self-organizing map ..................... 34.02.32 self-organizing feature map ........ 34.02.32 Kohonen map ............................... 34.02.32 associative memory ..................... 34.02.33 connectionist model ..................... 34.01.02 neural-network model .................. 34.01.10 multilayered network ................... 34.02.16 multilayered perceptron ............... 34.02.28 neural neural-network neurochip neurocomputer neurode neuron NN node nonlayered N neural net ..................................... 34.01.06 neural network ............................. 34.01.06 artificial neural network ............... 34.01.06 neural-network model .................. 34.01.10 layered network ........................... 34.02.13 nonlayered network .................... 34.02.14 single-layered network ................ 34.02.15 multilayered network ................... 34.02.16 partially connected network ........ 34.02.17 diluted network ............................ 34.02.17 totally connected network ........... 34.02.18 fully connected network .............. 34.02.18 randomly connected network ..... 34.02.19 random network ........................... 34.02.19 weight-sharing network .............. 34.02.20 synchronous neural network ...... 34.02.23 asynchronous neural network .... 34.02.24 feedforward network .................. 34.02.25 forward-propagation network .... 34.02.25 acyclic network ........................... 34.02.25 recurrent network ........................ 34.02.26 radial basis function network ...... 34.02.29 RBF network ................................ 34.02.29 back-propagation network .......... 34.02.30 feedback-propagation network ... 34.02.30 self-organizing network .............. 34.02.31 Hopfield network .......................... 34.02.34 crossbar associative network .... 34.02.34 adaptive resonance theory network ........................................ 34.02.36 ART network ................................ 34.02.36 winner-takes-all network ............ 34.02.37 winner-takes-more network ........ 34.02.38 adaptive neural network .............. 34.02.39 discrimination network ................. 34.02.40 hierarchical neural network ......... 34.02.41 hierarchical artificial neural network ........................................ 34.02.41 neural network ............................. 34.01.06 neural net ..................................... 34.01.06 artificial neural network ............... 34.01.06 neural computer ........................... 34.01.08 neural-network model .................. 34.01.10 synchronous neural network ...... 34.02.23 asynchronous neural network .... 34.02.24 adaptive neural network .............. 34.02.39 hierarchical neural network ......... 34.02.41 hierarchical artificial neural network ........................................ 34.02.41 neural connection ........................ 34.03.01 neural link ..................................... 34.03.01 neural-network model .................. 34.01.10 neurochip ..................................... 34.01.09 neurocomputer ............................. 34.01.08 neurode (deprecated) ................. 34.01.07 artificial neuron ............................ 34.01.07 input neuron ................................. 34.02.02 output neuron ............................... 34.02.03 visible neuron ............................... 34.02.04 hidden neuron .............................. 34.02.05 NN (abbreviation) ......................... 34.01.06 source node ................................. 34.02.01 nonlayered network .................... 34.02.14 O output net network 21 output neuron ............................... 34.02.03 output layer .................................. 34.02.08 P partially pattern per perceptron programmable propagation partially connected network ........ 34.02.17 pattern training ............................. 34.03.21 connection updates per second . 34.03.15 single-layer perceptron ............... 34.02.27 simple perceptron ........................ 34.02.27 perceptron ................................... 34.02.27 multilayered perceptron ............... 34.02.28 dynamically programmable connection ................................... 34.03.03 feedforward propagation ............ 34.03.16 forward propagation ................... 34.03.16 back propagation ......................... 34.03.17 feedback propagation .................. 34.03.17 R radial random randomly rate RBF recurrent representation resonance radial basis function .................... 34.03.14 radial basis function network ...... 34.02.29 random network ........................... 34.02.19 randomly connected network ..... 34.02.19 learning rate ................................. 34.03.08 RBF network ................................ 34.02.29 RBF (abbreviation) ....................... 34.03.14 recurrent network ........................ 34.02.26 subsymbolic representation ........ 34.01.03 adaptive resonance theory network ........................................ 34.02.36 PN-ISO/IEC 2382-34:2002 22 T S science second connection science ..................... 34.01.01 connection updates per second ......................................... 34.03.15 self-organization self-organization .......................... 34.03.09 self-organizing self-organizing network .............. 34.02.31 self-organizing map ..................... 34.02.32 self-organizing feature map ........ 34.02.32 simple simple perceptron ........................ 34.02.27 single-layer single-layer perceptron ............... 34.02.27 single-layered single-layered network ................ 34.02.15 slab slab ............................................... 34.02.12 SOFM SOFM (abbreviation) .................... 34.02.32 SOM SOM (abbreviation) ...................... 34.02.32 source source node ................................. 34.02.01 stable stable state (in neural networks) .................................... 34.02.21 stable coalition ............................. 34.02.22 state stable state (in neural networks) .................................... 34.02.21 storage associative storage ..................... 34.02.33 content-addressable storage ...... 34.02.33 strength connection strength ..................... 34.03.02 subsymbolic subsymbolic representation ........ 34.01.03 synaptic synaptic interconnection (deprecated) ................................ 34.03.01 synaptic connection (deprecated) ................................ 34.03.01 synaptic weight (deprecated) ................................ 34.03.02 synchronous synchronous neural network ...... 34.02.23 theory totally training adaptive resonance theory network ........................................ 34.02.36 totally connected network ........... 34.02.18 training (in neural networks) ....... 34.03.18 batch training ............................... 34.03.20 interactive training ........................ 34.03.21 pattern training ............................. 34.03.21 U updates connection updates per second . 34.03.15 V visible visible neuron ............................... 34.02.04 visible layer .................................. 34.02.09 W weight connection weight (in neural networks) .................... 34.03.02 synaptic weight (deprecated) ..... 34.03.02 weight-sharing weight-sharing network .............. 34.02.20 winner-takes-all winner-takes-all network ............ 34.02.37 winner-takes-more winner-takes-more network ........ 34.02.38 PN-ISO/IEC 2382-34:2002 23 Indeks alfabetyczny terminów polskich H A acykliczny adaptacyjny adresowany aktualizacja aktywacja algorytm ANN ART asocjacyjny asynchroniczny sieć acykliczna ............................ 34.02.25 sieć teorii rezonansu adaptacyjnego ............................. 34.02.36 adaptacyjna sieć neuronowa ..... 34.02.39 pamięć adresowana treścią ........ 34.02.33 liczba aktualizacji połączeń na sekundę .................................. 34.03.15 funkcja aktywacji ......................... 34.03.13 algorytm uczenia się (w sieciach neuronowych) ......... 34.03.06 ANN (skrót) .................................. 34.01.06 sieć ART ....................................... 34.02.36 pamięć asocjacyjna ..................... 34.02.33 asynchroniczna sieć neuronowa .................................. 34.02.24 B bazowy Boltzmann BPN sieć radialnych funkcji bazowych ...................................... 34.02.29 radialna funkcja bazowa ............. 34.03.14 maszyna Boltzmanna .................. 34.02.35 BPN (skrót) ................................... 34.02.30 C całkowicie CAN cecha CUPS częściowo sieć całkowicie połączona .......... 34.02.18 CAN (skrót) .................................. 34.02.34 samoorganizująca się mapa cech ............................................. 34.02.32 CUPS (skrót) ................................ 34.03.15 sieć częściowo połączona ......... 34.02.17 D decyzyjny dynamicznie warstwa decyzyjna .................... 34.02.08 połączenie dynamicznie programowalne ............................ 34.03.03 dyskryminacyjny sieć dyskryminacyjna .................. 34.02.40 E epoka Hebb heterarchia hierarchia hierarchiczny Hopfield I interaktywny jednokierunkowy sieć jednokierunkowa .................. 34.02.25 jednowarstwowy sieć jednowarstwowa ................ 34.02.15 perceptron jednowarstwowy ..... 34.02.27 K koalicja Kohonen komputer konekcjonistyczny konekcjonizm konkurencyjny korekcyjny liczba losowo losowy warstwa wąskiego gardła .......... 34.02.11 liczba aktualizacji połączeń na sekundę .................................. 34.03.15 sieć połączona losowo ............... 34.02.19 sieć losowa ................................. 34.02.19 Ł łącze łącze neuronowe ......................... 34.03.01 łącze synaptyczne (nie zalecane) .............................. 34.03.01 waga połączenia (w sieciach neuronowych) ............................. 34.03.02 połączenie dynamicznie programowalne ............................ 34.03.03 liczba aktualizacji połączeń na sekundę .................................. 34.03.15 M mapa G gardło koalicja stabilna ............................ 34.02.22 mapa Kohonena ........................... 34.02.32 komputer neuronowy .................. 34.01.08 model konekcjonistyczny ............. 34.01.02 uczenie się konekcjonistyczne ... 34.03.07 konekcjonizm ................................ 34.01.01 uczenie się konkurencyjne .......... 34.03.12 uczenie się korekcyjne ................ 34.03.10 L epoka (w sieciach neuronowych) ............................. 34.03.19 sieć radialnych funkcji bazowych .................................... 34.02.29 funkcja aktywacji ......................... 34.03.13 funkcja pobudzenia ..................... 34.03.13 radialna funkcja bazowa ............. 34.03.14 trenowanie interaktywne ............ 34.03.21 J F funkcja uczenie się metodą Hebba .......... 34.03.11 heterarchia ................................... 34.01.04 hierarchia ..................................... 34.01.05 hierarchiczna sieć neuronowa ... 34.02.41 hierarchiczna sztuczna sieć neuronowa .................................. 34.02.41 sieć Hopfielda .............................. 34.02.34 maszyna metoda mapa samoorganizująca się ........ 34.02.32 samoorganizująca się mapa cech ............................................. 34.02.32 mapa Kohonena ........................... 34.02.32 maszyna Boltzmanna .................. 34.02.35 uczenie się metodą Hebba .......... 34.03.11 PN-ISO/IEC 2382-34:2002 24 model model konekcjonistyczny ............. 34.01.02 model sieci neuronowej ............... 34.01.10 N neurokomputer neuron neuronowy niewarstwowy NN neurokomputer ............................. 34.01.08 sztuczny neuron .......................... 34.01.07 neuron wejściowy ....................... 34.02.02 neuron wyjściowy ....................... 34.02.03 neuron widoczny ......................... 34.02.04 neuron ukryty ............................... 34.02.05 sieć neuronowa ........................... 34.01.06 sztuczna sieć neuronowa .......... 34.01.06 komputer neuronowy .................. 34.01.08 neuronowy układ scalony ........... 34.01.09 model sieci neuronowej ............... 34.01.10 model sieci neuronowej ............... 34.01.10 synchroniczna sieć neuronowa .................................. 34.02.23 asynchroniczna sieć neuronowa .................................. 34.02.24 adaptacyjna sieć neuronowa ..... 34.02.39 hierarchiczna sieć neuronowa ... 34.02.41 hierarchiczna sztuczna sieć neuronowa .................................. 34.02.41 połączenie neuronowe ................ 34.03.01 łącze neuronowe ......................... 34.03.01 sieć niewarstwowa .................... 34.02.14 NN (skrót) ..................................... 34.01.06 P pamięć perceptron płytka pobudzenie połączenie połączony postępowy programowalny propagacja prosty pamięć asocjacyjna ..................... 34.02.33 pamięć skojarzeniowa ................. 34.02.33 pamięć adresowana treścią ........ 34.02.33 perceptron jednowarstwowy ..... 34.02.27 perceptron prosty ........................ 34.02.27 perceptron ................................... 34.02.27 perceptron wielowarstwowy ..... 34.02.28 płytka ............................................ 34.02.12 funkcja pobudzenia ..................... 34.03.13 połączenie neuronowe ................ 34.03.01 połączenie synaptyczne (nie zalecane) .............................. 34.03.01 sieć częściowo połączona ......... 34.02.17 sieć połączona zupełnie .............. 34.02.18 sieć całkowicie połączona .......... 34.02.18 sieć połączona losowo ............... 34.02.19 propagacja postępowa ............... 34.03.16 połączenie dynamicznie programowalne ............................ 34.03.03 propagacja prosta ........................ 34.03.16 propagacja postępowa ............... 34.03.16 propagacja wsteczna ................. 34.03.17 sieć propagacji wstecznej .......... 34.02.30 perceptron prosty ........................ 34.02.27 propagacja prosta ........................ 34.03.16 R radialny RBF rekurencyjny reprezentacja rezonans rozrzedzony sieć radialnych funkcji bazowych ...................................... 34.02.29 radialna funkcja bazowa ............. 34.03.14 sieć RBF ....................................... 34.02.29 RBF (skrót) ................................... 34.03.14 sieć rekurencyjna ........................ 34.02.26 reprezentacja subsymboliczna ... 34.01.03 sieć teorii rezonansu adaptacyjnego ............................. 34.02.36 sieć rozrzedzona ......................... 34.02.17 S samoorganizacja samoorganizacja .......................... 34.03.09 samoorganizujący sieć samoorganizująca się .......... 34.02.31 mapa samoorganizująca się ........ 34.02.32 samoorganizująca się mapa cech ............................................. 34.02.32 scalony neuronowy układ scalony ........... 34.01.09 sekunda liczba aktualizacji połączeń na sekundę .................................. 34.03.15 sieć sieć neuronowa ........................... 34.01.06 sztuczna sieć neuronowa .......... 34.01.06 model sieci neuronowej ............... 34.01.10 sieć warstwowa ......................... 34.02.13 sieć niewarstwowa .................... 34.02.14 sieć jednowarstwowa ................ 34.02.15 sieć wielowarstwowa ................ 34.02.16 sieć częściowo połączona ......... 34.02.17 sieć rozrzedzona ......................... 34.02.17 sieć połączona zupełnie .............. 34.02.18 sieć całkowicie połączona .......... 34.02.18 sieć połączona losowo ............... 34.02.19 sieć losowa ................................. 34.02.19 sieć o wagach współdzielonych 34.02.20 synchroniczna sieć neuronowa . 34.02.23 asynchroniczna sieć neuronowa 34.02.24 sieć jednokierunkowa .................. 34.02.25 sieć acykliczna ............................ 34.02.25 sieć rekurencyjna ........................ 34.02.26 sieć radialnych funkcji bazowych ...................................... 34.02.29 sieć RBF ....................................... 34.02.29 sieć propagacji wstecznej .......... 34.02.30 sieć samoorganizująca się .......... 34.02.31 sieć Hopfielda .............................. 34.02.34 sieć teorii rezonansu adaptacyjnego ............................. 34.02.36 sieć ART ....................................... 34.02.36 sieć typu „wszystko dla zwycięzcy” .................................. 34.02.37 sieć typu „więcej dla zwycięzcy” 34.02.38 adaptacyjna sieć neuronowa ..... 34.02.39 sieć dyskryminacyjna .................. 34.02.40 hierarchiczna sieć neuronowa ... 34.02.41 hierarchiczna sztuczna sieć neuronowa .................................. 34.02.41 skojarzeniowy pamięć skojarzeniowa ................. 34.02.33 SOFM SOFM (skrót) ................................ 34.02.32 SOM SOM (skrót) .................................. 34.02.32 stabilny stan stabilny (w sieciach neuronowych) ............................. 34.02.21 koalicja stabilna ............................ 34.02.22 stan stan stabilny (w sieciach neuronowych) ............................. 34.02.21 subsymboliczny reprezentacja subsymboliczna ... 34.01.03 synapsa waga synapsy (nie zalecane) .... 34.03.02 synaptyczny łącze synaptyczne (nie zalecane) .............................. 34.03.01 połączenie synaptyczne (nie zalecane) .............................. 34.03.01 synchroniczny synchroniczna sieć neuronowa . 34.02.23 sztuczny sztuczna sieć neuronowa .......... 34.01.06 sztuczny neuron .......................... 34.01.07 hierarchiczna sztuczna sieć neuronowa .................................. 34.02.41 T tempo teoria tempo uczenia się ........................ 34.03.08 sieć teorii rezonansu adaptacyjnego ............................. 34.02.36 PN-ISO/IEC 2382-34:2002 trenowanie treść typ trenowanie (w sieciach neuronowych) ............................. 34.03.18 trenowanie wsadowe ................. 34.03.20 trenowanie interaktywne ............ 34.03.21 trenowanie wzorców ................. 34.03.21 pamięć adresowana treścią ........ 34.02.33 sieć typu „wszystko dla zwycięzcy” .................................. 34.02.37 sieć typu „więcej dla zwycięzcy” 34.02.38 U uczenie układ ukryty uczenie się (w sieciach neuronowych) ............................. 34.03.05 algorytm uczenia się (w sieciach neuronowych) ......... 34.03.06 uczenie się konekcjonistyczne ... 34.03.07 tempo uczenia się ........................ 34.03.08 uczenie się korekcyjne ................ 34.03.10 uczenie się metodą Hebba .......... 34.03.11 uczenie się konkurencyjne .......... 34.03.12 neuronowy układ scalony ........... 34.01.09 neuron ukryty ............................... 34.02.05 warstwa ukryta ........................... 34.02.10 25 warstwa decyzyjna .................... 34.02.08 warstwa widoczna ..................... 34.02.09 warstwa ukryta ........................... 34.02.10 warstwa wąskiego gardła .......... 34.02.11 warstwowy sieć warstwowa ......................... 34.02.13 wąski warstwa wąskiego gardła .......... 34.02.11 wejściowy neuron wejściowy ....................... 34.02.02 warstwa wejściowa ................... 34.02.07 węzeł węzeł źródłowy ........................... 34.02.01 wiązka wiązka .......................................... 34.03.04 widoczny neuron widoczny ......................... 34.02.04 warstwa widoczna ..................... 34.02.09 wielowarstwowy sieć wielowarstwowa ................ 34.02.16 perceptron wielowarstwowy ..... 34.02.28 więcej sieć typu „więcej dla zwycięzcy” 34.02.38 wsadowy trenowanie wsadowe ................. 34.03.20 współdzielony sieć o wagach współdzielonych 34.02.20 wsteczny propagacja wsteczna ................. 34.03.17 sieć propagacji wstecznej .......... 34.02.30 wszystko sieć typu „wszystko dla zwycięzcy” .................................. 34.02.37 wyjściowy neuron wyjściowy ....................... 34.02.03 warstwa wyjściowa ................... 34.02.08 wzorzec trenowanie wzorców ................. 34.03.21 Z W waga warstwa sieć o wagach współdzielonych 34.02.20 waga połączenia (w sieciach neuronowych) ............................. 34.03.02 waga synapsy (nie zalecane) .... 34.03.02 warstwa (w sieciach neuronowych) ............................. 34.02.06 warstwa wejściowa ................... 34.02.07 warstwa wyjściowa ................... 34.02.08 zupełnie zwycięzca sieć połączona zupełnie .............. 34.02.18 sieć typu „wszystko dla zwycięzcy” .................................. 34.02.37 sieć typu „więcej dla zwycięzcy” 34.02.38 Ź źródłowy węzeł źródłowy ........................... 34.02.01 PN-ISO/IEC 2382-34:2002 26 Załącznik krajowy NA (informacyjny) NORMY I DOKUMENTY POWOŁANE W TREŚCI NORMY MIĘDZYNARODOWEJ I ICH ODPOWIEDNIKI KRAJOWE Normy powołane w ISO/IEC Odpowiedniki krajowe ISO/IEC 2382-1:1993 1) – PN-ISO/IEC 2382-1:1996 Technika informatyczna – Terminologia – Terminy podstawowe ISO/IEC 2382-12:1988 1) – PN-91/T-01016.12 Przetwarzanie informacji i komputery – Terminologia – Urządzenia peryferyjne ISO/IEC 2382-28:1995 – PN-ISO/IEC 2382-28:2001 Technika informatyczna – Terminologia – Część 28:Sztuczna inteligencja – Pojęcia podstawowe i systemy eksperckie ISO/IEC 2382-31:1997 – Pr PN-ISO/IEC 2382-31 Technika informatyczna – Terminologia – Sztuczna inteligencja – Uczenie się maszynowe 1) Obecnie w nowelizacji. PN-ISO/IEC 2382-34:2002 27 Załącznik krajowy NB (informacyjny) WYKAZ TERMINÓW FRANCUSKICH Intelligence artificielle – Réseaux neuronaux 34.02.26 34.02.27 34.01 Notions générales 34.01.01 34.01.02 34.01.03 34.01.04 34.01.05 34.01.06 connexionisme modèle connexioniste représentation sous-symbolique hétérarchie hiérarchie réseau neuronal réseau de neurones artificiels RNA (abbréviation) réseau de neurones formels neurone artificiel neurone formel ordinateur neuronal ordinateur neuronique neuroordinateur neuropuce puce neuronale modèle de réseau neuronal modèle neuronal 34.02.28 34.02.29 34.02.30 34.02.31 34 34.01.07 34.01.08 34.01.09 34.01.10 34.02 Réseaux neuronaux et leurs éléments 34.02.01 34.02.02 34.02.03 34.02.04 34.02.05 nœud source neurone d’entrée neurone de sortie neurone visible neurone caché neurone intermédiaire couche (dans les réseaux neuronaux) couche d’entrée couche de sortie couche visible couche caché couche goulet couche goulot plaque réseau en couches réseau sans couches réseau moncouche réseau multicouche réseau partiellement connecté réseau entièrement connecté réseau totalement connecté réseau à connections aléatoires réseau aléatoire réseau à patrs répartis état stable coalition stable réseau neuronal synchrone réseau neuronal asynchrone réseau acyclique 34.02.06 34.02.07 34.02.08 34.02.09 34.02.10 34.02.11 34.02.12 34.02.13 34.02.14 34.02.15 34.02.16 34.02.17 34.02.18 34.02.19 34.02.20 34.02.21 34.02.22 34.02.23 34.02.24 34.02.25 34.02.32 34.02.33 34.02.34 34.02.35 34.02.36 34.02.37 34.02.38 34.02.39 34.02.40 34.02.41 réseau récursif perceptron monocouche perceptron simple perceptron perceptron multicouche réseau à fonctions de base radiales réseau à rétropropagation réseau autoorganisable réseau à autoorganisation carte autoorganisable carte à autoorganisation carte de Kohonen mémoire asssociative mémoire adressable par le contenu réseau de Hopfield macine de Boltzmann réseau a résonance adptative réseau tout au vainqueur réseau plus au vainqueur réseau neuronal adaptatif réseau discriminant réseau neuronal hiérarchisé 34.03 Connexions et fonctions 34.03.01 connexion synaptique interconnexion synaptique poids synaptique poids de connexion pondération (dans les réseaux neuronaux) connexion programmable dynamiquement faisceau apprentissage (dans les réseaux neuronaux) algorithme d’apprentissage (dans les réseaux neuronaux) algorithme apprenant apprentissage connexioniste facteur d’apprentissage autoorganisation apprentissage par correction d’erreur apprentisage de Hebb apprentissage concurrentiel apprentissage compétitif fonction d’activation fonction de base radiales connexions actualisées par seconde CUPS (abbréviation) propagation avant rétropropagation propagation arrière entraînement (dans les réseaux neuronaux) époque entraînement collectif entraînement interactif 34.03.02 34.03.03 34.03.04 34.03.05 34.03.06 34.03.07 34.03.08 34.03.09 34.03.10 34.03.11 34.03.12 34.03.13 34.03.14 34.03.15 34.03.16 34.03.17 34.03.18 34.03.19 34.03.20 34.03.21 ISBN 83-243-0170-4 Polski Komitet Normalizacyjny ul. Świętokrzyska 14, 00-050 Warszawa http://www.pkn.pl