PN-ISO/IEC 2382-34

Transkrypt

PN-ISO/IEC 2382-34
POLSKA NORMA
Polski
Komitet
Normalizacyjny
PN-ISO/IEC 2382-34
grudzień 2002
Technika informatyczna
Terminologia
Część 34: Sztuczna inteligencja –
Sieci neuronowe
Information technology – Vocabulary – Part 34: Artificial intelligence – Neural networks
© Copyright by PKN, Warszawa 2002
Hologram
PKN
Wszelkie prawa autorskie zastrzeżone. Żadna część niniejszej normy nie może być
zwielokrotniana jakąkolwiek techniką bez pisemnej zgody Prezesa Polskiego Komitetu
Normalizacyjnego
ABSTRAKT NORMY
Podano, w języku polskim i angielskim, 72 terminy i definicje podstawowych terminów dotyczące sieci
neuronowych. Dołączono wykaz odpowiedników tych terminów w języku francuskim.
Terminy sklasyfikowano w następujące grupy (w nawiasach podano liczbę terminów w grupie): pojęcia
ogólne (10), sieci neuronowe i ich elementy (41), połączenia i funkcje (21).
TŁUMACZENIE ABSTRAKTU
Presents, in English and in Polish, 72 terms and definitions of basic concepts related to neural networks.
The set of equivalents of these terms in French is enclosed.
The terms are classified in the following groups (in brackets the number of items is given): general concepts
(10), neural networks and their components (41), connections and functions (21).
Norma opracowana w Normalizacyjnej Komisji Problemowej nr 170
ds. Terminologii Informatycznej i Kodowania Informacji
Pierwsze wydanie normy (rok) i lata kolejnych nowelizacji
..................................................................................
Zmiany wprowadzone do normy
Numer zmiany
Data wprowadzenia
grudzień 2002
POLSKA NORMA
PN-ISO/IEC 2382-34
POLSKI
KOMITET
NORMALIZACYJNY
Technika informatyczna
Terminologia
Część 34: Sztuczna inteligencja –
Sieci neuronowe
Zamiast:
ICS 01.040.35;35.020
ISO/IEC 2382-34:1999, IDT
PRZEDMOWA KRAJOWA
Niniejsza norma jest przedrukiem angielskiej wersji dwujęzycznej (angielsko-francuskiej) normy międzynarodowej ISO/IEC 2382-34:1999, wydanie pierwsze, uzupełnionym tłumaczeniem na język polski i jest wydana jako
identyczna z wprowadzoną normą międzynarodową.
Norma międzynarodowa ISO/IEC 2382-34:1999 jest 34. częścią wieloczęściowej normy ISO/IEC 2382. Do końca
1994 roku poszczególne części normy międzynarodowej ISO 2382 wprowadzano do Polskich Norm jako arkusze
PN-T-01016 pod wspólnym tytułem: Przetwarzanie informacji i komputery – Terminologia. Od 1995 roku polskie
wersje poszczególnych części ISO/IEC 2382 mają wspólny numer PN-ISO/IEC 2382 i wspólny tytuł: Technika
informatyczna – Terminologia. Od 1999 roku poszczególne części normy międzynarodowej ISO/IEC 2382 wprowadza się do Polskich Norm jako normy dwujęzyczne, angielsko-polskie, w celu ułatwienia stosowania ujednoliconego polskiego słownictwa z dziedziny informatyki.
Ze względu na takie zastosowanie normy starano się zachować dużą wierność tłumaczenia w stosunku do oryginału, uwzględniając jednocześnie, w miarę możliwości, zachowanie słownictwa już przyjętego w dotychczas
wydanych częściach (arkuszach) Polskiej Normy.
W normie są stosowane odsyłacze krajowe oznaczone N1) i N2).
Norma zawiera dwa załączniki krajowe (NA i NB) informacyjne, których treścią jest wykaz norm powołanych
w normie międzynarodowej i ich krajowych odpowiedników oraz wykaz terminów francuskich.
nr ref. PN-ISO/IEC 2382-34:2002
Ustanowiona przez Polski Komitet Normalizacyjny
dnia 18 grudnia 2002 r.
(Uchwała nr 55/2002-o)
NORMA
MIĘDZYNARODOWA
ISO/IEC
2382-34
INTERNATIONAL
STANDARD
NORME
INTERNATIONALE
Wydanie pierwsze
1999-08-15
Wersja polska
Technika informatyczna – Terminologia –
Część 34:
Sztuczna inteligencja – Sieci neuronowe
Information technology – Vocabulary –
Part 34:
Artificial intelligence – Neural networks
Technologies de l’information – Vocabulaire –
Partie 34:
Intelligence artificielle – Réseaux neuronaux
nr ref. ISO/IEC 2382-34:1999 (E/F)
PN-ISO/IEC 2382-34:2002
3
Niniejsza norma jest polską wersją normy międzynarodowej ISO/IEC 2382-34:1999. Została ona przedrukowana
z tłumaczeniem przez Polski Komitet Normalizacyjny i ma ten sam status co wersje oficjalne.
Information technology –
Vocabulary –
Technika informatyczna –
Part 34:
Artificial intelligence –
Neural networks
Część 34:
Section 1: General
Dział 1: Postanowienia ogólne
1.1
1.1
Scope
Terminologia –
Sztuczna inteligencja –
Sieci neuronowe
Zakres
This part of ISO/IEC 2382 is intended to facilitate international communication in artificial intelligence. It
presents, in two languages, terms and definitions of
selected concepts relevant to the field of information
technology and identifies relationships among the
entries.
Niniejsza część normy ISO/IEC 2382 ma ułatwić porozumiewanie się w dziedzinie sztucznej inteligencji
w skali międzynarodowej. Podano w niej, w dwóch
językach, terminy i definicje wybranych pojęć związanych z techniką informatyczną oraz określono powiązania między nimi.
In order to facilitate their translation into other languages, the definitions are drafted so as to avoid, as
far as possible, any peculiarity attached to a language.
W celu ułatwienia tłumaczenia na inne języki, definicje zostały tak opracowane, aby uniknąć, jeżeli jest to
możliwe, jakiejkolwiek specyfiki związanej z językiem.
This part of ISO/IEC 2382 defines concepts in artificial intelligence related to neural networks, their components, connections and functions.
W niniejszej części normy ISO/IEC 2382 zdefiniowano terminy z dziedziny sztucznej inteligencji odnoszące się do sieci neuronowych, ich elementów, połączeń i funkcji.
1.2
1.2
Normative references
The following standards contain provisions which,
through reference in this text, constitute provisions of
this part of ISO/IEC 2382. At the time of publication,
the editions indicated were valid. All standards are
subject to revision, and parties to agreements based
on this part of ISO/IEC 2382 are encouraged to investigate the possibility of applying the most recent editions of the standards indicated below. Members of
IEC and ISO maintain registers of currently valid International Standards.
Normy powołane N1)
Wymienione niżej normy zawierają postanowienia,
które — przez powołanie się (na daną normę) w treści
niniejszej normy — stają się również postanowieniami niniejszej części normy ISO/IEC 2382. W momencie publikacji niniejszej części normy międzynarodowej podane niżej wydania norm były aktualne. Ponieważ jednak wszystkie normy podlegają nowelizacji,
strony zawierające umowy na podstawie niniejszej
części ISO/IEC 2382 zachęca się do zbadania możliwości zastosowania najnowszego wydania wymienionych niżej norm. Rejestry aktualnych norm międzynarodowych prowadzą członkowie IEC i ISO N2).
N1)
Odsyłacz krajowy: Patrz załącznik krajowy NA.
Odsyłacz krajowy: W Polsce rejestr aktualnych norm międzynarodowych prowadzi Ośrodek Informacji i Dokumentacji
Biura Polskiego Komitetu Normalizacyjnego w Warszawie.
N2)
PN-ISO/IEC 2382-34:2002
4
ISO/IEC 2382-1:1993 1), Information technology –
Vocabulary – Part 1: Fundamental terms
ISO/IEC 2382-1:19931), Information technology – Vocabulary – Part 1: Fundamental terms
ISO/IEC 2382-12:19881), Information technology –
Vocabulary – Part 12: Peripheral equipment
ISO/IEC 2382-12:19881), Information technology –
Vocabulary – Part 12: Peripheral equipment
ISO/IEC 2382-28:1995, Information technology – Vocabulary – Part 28: Artificial intelligence – Basic concepts and expert systems
ISO/IEC 2382-28:1995, Information technology – Vocabulary – Part 28: Artificial intelligence – Basic concepts and expert systems
ISO/IEC 2382-31:1997, Information technology – Vocabulary – Part 31: Artificial intelligence – Machine
learning
ISO/IEC 2382-31:1997, Information technology – Vocabulary – Part 31: Artificial intelligence – Machine
learning
1.3
1.3
1.3.1
Principles and rules followed
Definition of an entry
1.3.1
Zasady opracowywania terminologii
Definicja hasła terminologicznego
Section 2 comprises a number of entries. Each entry
consists of a set of essential elements that includes
an index number, one term or several synonymous
terms, and a phrase defining one concept. In addition, an entry may include examples, notes or illustrations to facilitate understanding of the concept.
Dział 2 zawiera hasła terminologiczne. Każde hasło
terminologiczne składa się ze zbioru elementów podstawowych, który zawiera numer indeksowy, jeden
termin lub kilka terminów stanowiących synonimy
oraz opis definiujący to pojęcie. W celu ułatwienia
zrozumienia dodatkowo mogą być podane przykłady, uwagi lub rysunki.
Occasionally, the same term may be defined in different entries, or two or more concepts may be covered
by one entry, as described in 1.3.5 and 1.3.8 respectively.
Niekiedy ten sam termin może być zdefiniowany
w różnych hasłach terminologicznych, a także dwa
pojęcia lub kilka pojęć może być objętych jednym
hasłem terminologicznym, tak jak to opisano odpowiednio w 1.3.5 i 1.3.8.
Other terms such as vocabulary, concept, term,
and definition are used in this part of ISO/IEC 2382
with the meaning defined in ISO 1087.
Terminy takie jak słownik, pojęcie, termin i definicja są stosowane w niniejszej części ISO/IEC 2382
w znaczeniach zdefiniowanych w ISO 1087.
1.3.2
1.3.2
Organization of an entry
Budowa hasła terminologicznego
Each entry contains the essential elements defined
in 1.3.1 and, if necessary, additional elements. The
entry may contain the following elements in the following order:
Każde hasło terminologiczne składa się z elementów podstawowych zdefiniowanych w 1.3.1 i, jeżeli
to konieczne, z elementów dodatkowych. Hasło terminologiczne może zawierać następujące elementy
w podanej kolejności:
a) an index number (common for all languages in which
this part of ISO/IEC 2382 is published);
a) numer indeksowy (taki sam we wszystkich językach, w których niniejsza część ISO/IEC 2382 jest
publikowana);
b) the term or the generally preferred term in the language. The absence of a generally preferred term for
the concept in the language is indicated by a symbol
consisting of five dots (.....); a row of dots may be
used to indicate, in a term, a word to be chosen in
each particular case;
b) podany termin lub termin powszechnie przyjęty
w danym języku. Brak powszechnie przyjętego terminu danego pojęcia w danym języku zaznacza się
symbolem składającym się z pięciu kropek (.....);
szereg kropek może być użyty do oznaczenia w terminie miejsca wyrazu właściwego dla każdego szczególnego przypadku;
1)
1)
Currently under revision.
Obecnie w nowelizacji.
PN-ISO/IEC 2382-34:2002
5
c) the preferred term in a particular country (identified
according to the rules of ISO 3166);
c) termin preferowany w danym kraju (identyfikowanym zgodnie z zasadami podanymi w ISO 3166);
d) the abbreviation for the term;
d) skrót terminu;
e) permitted synonymous term(s);
e) dozwolone synonimy terminu(-ów);
f) the text of the definition (see 1.3.4);
f) tekst definicji (patrz 1.3.4);
g) one or more examples with the heading „Example(s)”;
g) jeden przykład lub kilka przykładów z nagłówkiem
„Przykład(-y)”;
h) one or more notes specifying particular cases in
the field of application of the concepts with the heading „NOTE(S)”;
h) jedna uwaga lub kilka uwag określających szczególne przypadki zastosowania tych pojęć, z nagłówkiem „UWAGA(-I)”;
i) a picture, a diagram, or a table which could be common to several entries.
i) rysunek, wykres lub tablica, które mogą być wspólne dla kilku haseł terminologicznych.
1.3.3
1.3.3
Classification of entries
Klasyfikacja haseł terminologicznych
A two-digit serial number is assigned to each part of
ISO/IEC 2382, beginning with 01 for „Fundamental
terms”.
Każdej części ISO/IEC 2382 jest przypisany dwucyfrowy numer porządkowy, rozpoczynając od numeru
01 „Terminy podstawowe”.
The entries are classified in groups to each of which
is assigned a four-digit serial number, the first two
digits being those of the part of ISO/IEC 2382.
Hasła terminologiczne sklasyfikowano w grupy; każdej grupie przypisano czterocyfrowy numer porządkowy; dwie pierwsze cyfry wskazują odpowiednią
część ISO/IEC 2382.
Each entry is assigned a six-digit index number, the
first four digits being those of the part of ISO/IEC 2382
and the group.
Każde hasło terminologiczne ma przypisany sześciocyfrowy numer indeksowy; cztery pierwsze cyfry
wskazują odpowiednią część ISO/IEC 2382 i odpowiednią grupę.
To show the relationship between versions of ISO/
IEC 2382 in various languages, the numbers assigned
to parts, groups, and entries are the same for all languages.
W celu zachowania zgodności między wersjami
ISO/IEC 2382, opracowanymi w różnych językach,
numery przypisane częściom, grupom i hasłom terminologicznym pozostawia się takie same we wszystkich wersjach językowych.
1.3.4
1.3.4
Selection of terms and wording of
definitions
Wybór terminów i formułowanie
definicji
The selection of terms and the wording of definitions
have, as far as possible, followed established usage.
Where there were contradictions, solutions agreeable
to the majority have been sought.
Wybór terminów i słownictwa zastosowanego w definicjach wynika, tak dalece jak jest to możliwe, z powszechnie stosowanej terminologii językowej.
W przypadkach kontrowersyjnych przyjęto sformułowania uznawane przez większość.
1.3.5
1.3.5
Multiple meanings
When, in one of the working languages, a given term
has several meanings, each meaning is given a separate entry to facilitate translation into other languages.
Wieloznaczność terminu
Jeżeli termin podany w jednym ze stosowanych tu
języków ma kilka znaczeń, to każdemu znaczeniu
przypisano oddzielne hasło terminologiczne w celu
ułatwienia tłumaczenia na inne języki.
PN-ISO/IEC 2382-34:2002
6
1.3.6
Abbreviations
1.3.6
Skróty
As indicated in 1.3.2, abbreviations in current use are
given for some terms. Such abbreviations are not used
in the texts of the definitions, examples or notes.
Zgodnie z 1.3.2, niektóre terminy uzupełniono stosowanymi skrótami. Skróty takie nie są stosowane
w tekstach definicji, przykładów i uwag.
1.3.7
1.3.7
Use of parentheses
Stosowanie nawiasów okrągłych
In some terms, one or more words printed in bold
typeface are placed between parentheses. These
words are part of the complete term, but they may be
omitted when use of the abridged term in a technical
context does not introduce ambiguity. In the text of
another definition, example, or note of ISO/IEC 2382,
such a term is used only in its complete form.
W niektórych terminach wyraz lub wyrazy drukowane półgrubą czcionką są umieszczone w nawiasach
okrągłych. Wyrazy te są częścią pełnego terminu,
ale mogą być pominięte, jeśli użycie skróconego terminu w kontekście technicznym nie wprowadza niejednoznaczności. W tekście innej definicji, w przykładzie lub uwadze w ISO/IEC 2382 taki termin jest
stosowany tylko w pełnej postaci.
In some entries, the terms are followed by words in
parentheses in normal typeface. These words are not
a part of the term but indicate directives for the use of
the term, its particular field of application, or its grammatical form.
W niektórych hasłach terminologicznych przyjęty termin uzupełnia się wyrazami drukowanymi typową
czcionką, zawartymi w nawiasach okrągłych. Wyrazy
te nie stanowią części terminu, ale wskazują jak należy go stosować, jaki jest konkretny zakres zastosowania tego terminu lub jaka jest jego forma gramatyczna.
1.3.8
1.3.8
Use of brackets
Stosowanie nawiasów kwadratowych
When several closely related terms can be defined
by texts that differ only in a few words, the terms and
their definitions are grouped in a single entry. The
words to be substituted in order to obtain the different
meanings are placed in brackets, i.e. [ ], in the same
order in the term and in the definition. To clearly identify the words to be substituted, the last word that
according to the above rule could be placed in front of
the opening bracket is, wherever possible, placed inside the bracket and repeated for each alternative.
Jeśli kilka ściśle ze sobą związanych terminów można
zdefiniować za pomocą tekstów różniących się tylko
kilkoma wyrazami, to terminy te i ich definicje są zgrupowane w jednym haśle terminologicznym. Wyrazy,
które powinny być zastąpione po to, aby uzyskać różne znaczenia, są umieszczone w nawiasach kwadratowych [ ], w tej samej kolejności w terminie i definicji.
Aby uniknąć wątpliwości dotyczących zastępowania
wyrazów, ostatni wyraz występujący zgodnie z powyższą regułą przed nawiasem otwierającym może być,
w miarę możliwości, umieszczony również wewnątrz
nawiasu i powtórzony w każdym przypadku.
1.3.9
1.3.9
Use of terms printed in italic typeface in definitions and the use of
an asterisk
Stosowanie kursywy do terminów
występujących w definicjach oraz
stosowanie gwiazdki
A term printed in italic typeface in a definition,
an example, or a note is defined in another entry in
ISO/IEC 2382, which may be in another part. However, the term is printed in italic typeface only the first
time it occurs in each entry.
Termin drukowany kursywą, występujący w definicji,
przykładzie lub uwadze, jest zdefiniowany jako odrębne hasło terminologiczne w tej lub innej części
ISO/IEC 2382. Termin taki jest drukowany kursywą
tylko wtedy, gdy występuje w danym haśle pierwszy
raz.
Italic typeface is also used for other grammatical forms
of a term, for example, plurals of nouns and participles of verbs.
Kursywę stosuje się również do innych form gramatycznych terminu, na przykład rzeczowników liczby
mnogiej i imiesłowów.
PN-ISO/IEC 2382-34:2002
7
The basic forms of all terms printed in italic typeface
which are defined in this part of ISO/IEC 2382 are
listed in the index at the end of the part (see 1.3.11).
Podstawowe formy wszystkich terminów drukowanych kursywą, które są zdefiniowane w tej części ISO/
IEC 2382, podano w indeksie zamieszczonym na
końcu niniejszej części (patrz 1.3.11).
An asterisk is used to separate terms printed in italic
typeface when two such terms are referred to in separate entries and directly follow each other (or are separated only by a punctuation mark).
Gwiazdkę stosuje się do oddzielenia dwu odrębnych
terminów drukowanych kursywą, gdy występują bezpośrednio po sobie (lub gdy są oddzielone tylko znakiem interpunkcyjnym).
Words or terms that are printed in normal typeface
are to be understood as defined in current dictionaries or authoritative technical vocabularies.
Wyrazy lub terminy drukowane typową czcionką powinny być rozumiane zgodnie z definicją podaną w aktualnych słownikach lub uznanych słownikach technicznych.
1.3.10 Spelling
1.3.10 Pisownia
In the English language version of this part of
ISO/IEC 2382, terms, definitions, examples, and notes
are given in the spelling preferred in the USA. Other
correct spellings may by used without violating this
part of ISO/IEC 2382.
W wersji angielskiej niniejszej części ISO/IEC 2382
terminy, definicje, przykłady i uwagi podano według
pisowni stosowanej w USA. Inną pisownię można
stosować bez naruszania zgodności z niniejszą częścią ISO/IEC 2382.
1.3.11 Organization of the alphabetical
index
1.3.11 Struktura indeksu alfabetycznego
For each language used, an alphabetical index is provided at the end of each part. The index includes all
terms defined in the part. Multiple-word terms appear
in alphabetical order under each of their key words.
Indeks alfabetyczny zamieszcza się na końcu każdej części, niezależnie od wersji językowej. Zawiera
on wszystkie terminy zdefiniowane w danej części.
Terminy wielowyrazowe umieszcza się w kolejności
alfabetycznej pod każdym ze słów kluczowych.
PN-ISO/IEC 2382-34:2002
8
Section 2: Terms and definitions
Dział 2: Terminy i definicje
34
34
34.01
Artificial intelligence – Neural
networks
General concepts
34.01
Sztuczna inteligencja – Sieci
neuronowe
Pojęcia ogólne
34.01.01
connectionism
connection science
An interdisciplinary approach to artificial intelligence
where complex computations are carried out by
a network of simple processing elements, each of
which is connected to a great number of other elements, and which exchange simple messages, and
where parallel processing occurs among a great number of such elements.
34.01.01
konekcjonizm
Interdyscyplinarne podejście do sztucznej inteligencji, w którym złożone obliczenia realizowane są przez
sieć prostych elementów przetwarzających, z których każdy jest połączony z wielką liczbą innych elementów i wymienia z nimi proste komunikaty tak, że
zachodzi przetwarzanie równoległe przez wielką liczbę tych elementów.
NOTE – Connectionism is inspired by the operation of
biological neural systems such as the human brain.
UWAGA – Inspiracją konekcjonizmu jest działanie biologicznych układów nerwowych, takich jak ludzki mózg.
34.01.02
connectionist model
A computational model for intelligent activities in which
pieces of information are collectively represented by
a network of a great number of simple processing elements that communicate by exchanging simple
messages, and complex computations are carried out
through parallel processing distributed among a great
number of such elements.
34.01.02
model konekcjonistyczny
Model obliczeniowy dla inteligentnych działań, w którym informacje są kolektywnie reprezentowane przez
sieć złożoną z prostych elementów przetwarzających,
które komunikują się wymieniając proste komunikaty, zaś złożone obliczenia są realizowane przez przetwarzanie równoległe, rozproszone na wielkiej liczbie
tych elementów.
NOTE – Connectionist models are for instance applied
in knowledge representation, * pattern recognition, *
computer vision, * natural-language understanding, *
learning (as defined in ISO/IEC 2382-31), and motion
control.
UWAGA – Modele konekcjonistyczne są stosowane na
przykład w reprezentacji wiedzy, * rozpoznawaniu
wzorców, * komputerowym widzeniu, * rozumieniu
języka naturalnego, * uczeniu się (zgodnie z definicją
w ISO/IEC 2382-31) oraz w sterowaniu ruchem.
34.01.03
subsymbolic representation
A technique for knowledge representation that distributes the representation over a relatively large network rather than storing symbols directly.
34.01.03
reprezentacja subsymboliczna
Technika reprezentacji wiedzy, w której wiedza jest
rozproszona w stosunkowo dużej sieci, a nie zapamiętywana bezpośrednio w formie symboli.
NOTE – In the connectionist model, the knowledge stored
in the network is fragmented by using subsymbolic representation and cannot be easily expressed as simple
rules or symbolic forms.
UWAGA – W modelu konekcjonistycznym, wiedza przechowywana w sieci jest rozproszona za pomocą reprezentacji subsymbolicznej i nie może być łatwo wyrażona
jako proste reguły lub symboliczne formuły.
34.01.04
heterarchy
The structure of a system whose components can
communicate directly with each other.
34.01.04
heterarchia
Struktura systemu, którego składniki mogą się komunikować ze sobą bezpośrednio.
34.01.05
hierarchy
The structure of a system whose components are
ranked into levels of subordination for communication
purposes according to specific rules.
34.01.05
hierarchia
Struktura systemu, którego składniki są uporządkowane według określonych reguł w poziomy podrzędności pod względem wzajemnej komunikacji.
PN-ISO/IEC 2382-34:2002
9
34.01.06
neural network
neural net
NN (abbreviation)
artificial neural network
ANN (abbreviation)
A network of primitive processing elements connected
by weighted links with adjustable weights, in which
each element produces a value by applying a nonlinear function to its input values, and transmits it to the
other elements or presents it as an output value.
34.01.06
sieć neuronowa
NN (skrót)
Sztuczna sieć neuronowa
ANN (skrót)
Sieć prostych elementów przetwarzających połączonych ważonymi łączami z modyfikowalnymi wagami, w której każdy element wytwarza wartość przez
zastosowanie nieliniowej funkcji do wartości wejściowych i przesyła ją do innych elementów lub przedstawia jako wartość wyjściową.
NOTES
UWAGI
1 Whereas some neural networks are intended to simulate the functioning of neurons in the nervous system,
most neural networks are used in artificial intelligence
as realizations of the connectionist model.
1 Niektóre sieci neuronowe budowane są z myślą o symulowaniu działania neuronów w układzie nerwowym, jednakże większość sieci neuronowych w sztucznej inteligencji stanowi realizację modelu konekcjonistycznego.
2 Examples of nonlinear functions are a threshold function, a sigmoid function, and a polynomial function.
2 Przykładami funkcji nieliniowych są funkcja progowa,
funkcja sigmoidalna oraz funkcja wielomianowa.
3 This entry is an improved version of the entry 28.01.22
in ISO/IEC 2382-28:1995.
3 Powyższa definicja stanowi poprawioną wersję definicji 28.01.22 z normy ISO/IEC 2382-28:1995.
34.01.07
artificial neuron
neurode (deprecated)
A primitive processing element in a neural network,
with several inputs and one output, the output value
of which is a nonlinear function of a linear combination of the input values with adjustable weighting coefficients.
34.01.07
sztuczny neuron
Prosty element przetwarzający w sieci neuronowej
mający kilka wejść i jedno wyjście, taki, że jego wartość wyjściowa jest nieliniową funkcją kombinacji liniowej wartości wejściowych o modyfikowalnych
współczynnikach wagowych.
NOTES
UWAGI
1 Artificial neurons are modeled according to the functioning of neurons in the nervous system and are interconnected in order to exchange messages.
1 Sztuczne neurony są modelowane według działania
neuronów w układzie nerwowym i są połączone w celu
wymiany komunikatów.
2 Each artificial neuron is a node of the neural network,
that cooperates and communicates with other neurons.
A neural network can also have input nodes which are
not artificial neurons.
2 Każdy sztuczny neuron jest węzłem sieci neuronowej, współdziałającym i komunikującym się z innymi
neuronami. Sieć neuronowa może mieć także węzły
wejściowe, które nie są sztucznymi neuronami.
34.01.08
neurocomputer
neural computer
A special-purpose computer built as a neural network.
34.01.08
neurokomputer
komputer neuronowy
Specjalistyczny komputer zaprojektowany jako sieć
neuronowa.
NOTE – The performance usually is measured in connection updates per second.
UWAGA – Efektywność neurokomputera zwykle jest mierzona liczbą aktualizacji połączeń na sekundę.
34.01.09
neurochip
A reconfigurable chip that implements all or part
a neural-network model.
34.01.09
neuronowy układ scalony
Rekonfigurowalny układ scalony implementujący całość lub część modelu sieci neuronowej.
10
PN-ISO/IEC 2382-34:2002
34.01.10
neural-network model
An abstract model of a neural network that can be simulated in software or implemented as a neurocomputer.
34.01.10
model sieci neuronowej
Abstrakcyjny model sieci neuronowej, który może być
symulowany przez oprogramowanie bądź zaimplementowany jako neurokomputer.
34.02
34.02
Neural networks and their components
Sieci neuronowe i ich elementy
34.02.01
source node
A node of a neural network that supplies input * signals to artificial neurons.
34.02.01
węzeł źródłowy
Węzeł * sieci neuronowej, który dostarcza sygnały *
wejściowe do sztucznych neuronów.
34.02.02
input neuron
An artificial neuron that receives signals from external sources.
34.02.02
neuron wejściowy
Sztuczny neuron, który otrzymuje sygnały z zewnętrznych źródeł.
34.02.03
output neuron
An artificial neuron that sends signals to an external
system.
34.02.03
neuron wyjściowy
Sztuczny neuron, który przesyła sygnały do układu
zewnętrznego.
34.02.04
visible neuron
An artificial neuron that directly communicates with
external systems.
34.02.04
neuron widoczny
Sztuczny neuron, który komunikuje się z układami
zewnętrznymi bezpośrednio.
NOTE – A visible neuron may be an input neuron, an
output neuron, or both.
UWAGA – Neuron widoczny może być neuronem wejściowym, * neuronem wyjściowym lub obydwoma.
34.02.05
hidden neuron
An artificial neuron that does not directly communicate with external systems.
34.02.05
neuron ukryty
Sztuczny neuron, który nie komunikuje się bezpośrednio z układami zewnętrznymi.
34.02.06
layer (in neural networks)
In a hierarchically organized neural network, a group
of artificial neurons whose outputs may connect to
neurons in a group toward the output of the network
but not to neurons in a group back toward the input of
the network.
34.02.06
warstwa (w sieciach neuronowych)
W hierarchicznie zorganizowanej sieci neuronowej,
grupa sztucznych neuronów, których wyjścia mogą
łączyć się z neuronami z grupy znajdującej się bliżej
wyjścia sieci, ale nie mogą łączyć się z neuronami
z grupy znajdującej się bliżej wejścia sieci.
NOTE – Artificial neurons of the same layer may have
connections among them.
UWAGA – Sztuczne neurony z tej samej warstwy mogą
być połączone pomiędzy sobą.
34.02.07
input layer
A layer whose artificial neurons receive signals from
external sources.
34.02.07
warstwa wejściowa
Warstwa, której sztuczne neurony otrzymują sygnały
z zewnętrznych źródeł.
NOTE – By extension, the term “input layer” is also used
for a group of source nodes.
UWAGA – W szerszym znaczeniu termin „warstwa wejściowa” jest stosowany także w stosunku do grupy węzłów źródłowych.
PN-ISO/IEC 2382-34:2002
11
34.02.08
output layer
decision layer
A layer whose artificial neurons send signals to an
external system.
34.02.08
warstwa wyjściowa
warstwa decyzyjna
Warstwa, której sztuczne neurony przesyłają sygnały
do układu zewnętrznego.
34.02.09
visible layer
A layer whose nodes directly communicate with external systems.
34.02.09
warstwa widoczna
Warstwa, której węzły komunikują się z układami
zewnętrznymi bezpośrednio.
34.02.10
hidden layer
A layer whose artificial neurons do not directly communicate with external systems.
34.02.10
warstwa ukryta
Warstwa, której sztuczne neurony nie komunikują się
bezpośrednio z układami zewnętrznymi.
34.02.11
bottleneck layer
The hidden layer that forces a neural network to develop a compact representation of the input data.
34.02.11
warstwa wąskiego gardła
Warstwa ukryta, która w sieci neuronowej wymusza
zwartą reprezentację danych wejściowych.
34.02.12
slab
A group of artificial neurons that share the same activation function and learning rule, and that have equivalent interconnection topologies.
34.02.12
płytka
Grupa sztucznych neuronów, które mają taką samą
funkcję aktywacji i regułę uczenia się oraz mają równoważne topologie połączeń.
NOTE – Slabs may be interconnected in a hierarchical
fashion but other architectures may also occur.
UWAGA – Płytki mogą być połączone w sposób hierarchiczny, ale możliwe są także inne architektury.
34.02.13
layered network
A neural network whose artificial neurons are hierarchically organized in layers.
34.02.13
sieć warstwowa
Sieć neuronowa, której sztuczne neurony są uporządkowane hierarchicznie w warstwy.
NOTE – A layered network may have a distinct group of
source nodes in addition to the layers of artificial neurons.
UWAGA – Sieć warstwowa oprócz warstw sztucznych
neuronów może zawierać także osobną grupę węzłów
źródłowych.
34.02.14
nonlayered network
A neural network whose artificial neurons are not organized in layers.
34.02.14
sieć niewarstwowa
Sieć neuronowa, której sztuczne neurony nie są
uporządkowane w warstwy.
34.02.15
single-layered network
A layered network having only source nodes and one
output layer, without hidden layers.
34.02.15
sieć jednowarstwowa
Sieć warstwowa złożona wyłącznie z węzłów źródłowych i jednej warstwy wyjściowej, bez warstw ukrytych.
NOTE – In a single-layered network, only the output layer
performs computation.
UWAGA – W sieci jednowarstwowej obliczenia wykonuje wyłącznie warstwa wyjściowa.
34.02.16
multilayered network
A layered network having at least two layers.
34.02.16
sieć wielowarstwowa
Sieć warstwowa zawierająca co najmniej dwie warstwy.
NOTE – A multilayered network may have a distinct group
of source nodes in addition to the layers of artificial neurons. In this case there is at least one hidden layer.
UWAGA – Sieć wielowarstwowa oprócz warstw sztucznych neuronów może zawierać także osobną grupę węzłów źródłowych. W tym przypadku sieć zawiera co najmniej jedną warstwę ukrytą.
12
PN-ISO/IEC 2382-34:2002
34.02.17
partially connected network
diluted network
A nonlayered network in which each artificial neuron
is not necessarily connected to all the others, or
a layered network in which each artificial neuron in
a layer is not necessarily connected to all neurons in
the adjacent forward layer.
34.02.17
sieć częściowo połączona
sieć rozrzedzona
Sieć niewarstwowa, w której nie każdy sztuczny neuron połączony jest ze wszystkimi innymi, lub sieć
warstwowa, w której nie każdy sztuczny neuron
w pewnej warstwie jest połączony ze wszystkimi neuronami w przyległej warstwie wyższej.
34.02.18
totally connected network
fully connected network
A nonlayered network in which each artificial neuron
is connected to all the others, or a layered network in
which each artificial neuron in a layer is connected to
all neurons in the adjacent forward layer.
34.02.18
sieć połączona zupełnie
sieć całkowicie połączona
Sieć niewarstwowa, w której każdy sztuczny neuron
jest połączony ze wszystkimi innymi, lub sieć warstwowa, w której każdy sztuczny neuron w każdej
warstwie jest połączony ze wszystkimi neuronami
w przyległej warstwie wyższej.
34.02.19
randomly connected network
random network
A neural network whose artificial neurons are connected at random.
34.02.19
sieć połączona losowo
sieć losowa
Sieć neuronowa, w której sztuczne neurony są połączone losowo.
34.02.20
weight-sharing network
A neural network in which all artificial neurons in the
same layer share the same connection weight vector.
34.02.20
sieć o wagach współdzielonych
Sieć neuronowa, w której wszystkie sztuczne neurony w tej samej warstwie mają identyczny wektor wag
połączeń.
34.02.21
stable state (in neural networks)
The state in which the connection weights of all artificial neurons remain unchanged.
34.02.21
stan stabilny (w sieciach neuronowych)
Stan, w którym wagi połączeń wszystkich sztucznych neuronów nie podlegają zmianom.
NOTE – A stable state occurs generally when the weights
remain unchanged with further training, but may also
occur in normal functioning. such as in a Hopfield network.
UWAGA – Stan stabilny pojawia się podczas trenowania, kiedy wagi przestają się zmieniać, ale może się
pojawić także podczas normalnego działania, jak na przykład w sieci Hopfielda.
34.02.22
stable coalition
A mutually excitatory group of artificial neurons that
keep each other active during the stable state.
34.02.22
koalicja stabilna
Grupa wzajemnie pobudzających się sztucznych
neuronów, które podtrzymują swą aktywność nawzajem w stanie stabilnym.
34.02.23
synchronous neural network
A neural network in which all artificial neurons are
simultaneously updated.
34.02.23
synchroniczna sieć neuronowa
Sieć neuronowa, w której wszystkie sztuczne neurony są aktualizowane jednocześnie.
34.02.24
asynchronous neural network
A neural network in which the artificial neurons are
not updated simultaneously but, for example, at random or in some organized sequence.
34.02.24
asynchroniczna sieć neuronowa
Sieć neuronowa, w której sztuczne neurony nie są
aktualizowane jednocześnie, lecz na przykład losowo lub w ustalonej kolejności.
PN-ISO/IEC 2382-34:2002
13
34.02.25
feedforward network
forward-propagation network
acyclic network
A multilayered network with no feedback paths nor
any paths between artificial neurons within a given
layer.
34.02.25
sieć jednokierunkowa
sieć acykliczna
Sieć wielowarstwowa bez łączy wstecznych i bez łączy między sztucznymi neuronami wewnątrz tej samej warstwy.
Example: Multilayered perceptron.
Przykład: Perceptron wielowarstwowy.
NOTE – This term is sometimes used to designate any
layered network.
UWAGA – Niekiedy termin ten jest używany w znaczeniu
dowolnej sieci warstwowej.
34.02.26
recurrent network
A neural network in which the connections between
artificial neurons form at least one feedback loop.
34.02.26
sieć rekurencyjna
Sieć neuronowa, w której połączenia między sztucznymi neuronami tworzą przynajmniej jedną pętlę
sprzężenia zwrotnego.
Examples: Hopfield network,* Boltzmann machine.
Przykłady: Sieć Hopfielda, * maszyna Boltzmanna.
NOTE – A nonlayered network is a recurrent network.
A layered network is recurrent if there are connections
between neurons within a given layer or connections
from a given neuron to a neuron in a layer back toward
the input.
UWAGA – Sieć niewarstwowa jest siecią rekurencyjną.
Sieć warstwowa jest rekurencyjna, jeśli istnieją połączenia między neuronami w tej samej warstwie lub połączenia od pewnego neuronu położonego głębiej do neuronu znajdującego się bliżej wejścia.
34.02.27
single-layer perceptron
simple perceptron
perceptron
A neural network consisting of one artificial neuron,
with a binary * output value that is determined by applying a monotonic function to a linear combination of
the input values and with error-correction learning.
34.02.27
perceptron jednowarstwowy
perceptron prosty
perceptron
Sieć neuronowa, w której stosowane jest uczenie się
korekcyjne, złożona z jednego sztucznego neuronu
z wyjściem * binarnym, która otrzymywana jest przez
zastosowanie funkcji monotonicznej do kombinacji
liniowej wartości wejściowych.
NOTES
UWAGI
1 The single-layer perceptron forms two decision regions separated by a hyperplane.
1 Perceptron tworzy dwa regiony decyzyjne rozdzielone
hiperpłaszczyzną.
2 For binary inputs values, the single-layer perceptron
cannot implement the non-equivalence operation
(EXCLUSIVE OR, XOR).
2 Dla binarnych wartości wejściowych perceptron jednowarstwowy nie może realizować operacji nierówności (WYŁĄCZNE LUB).
34.02.28
multilayered perceptron
A feedforward network consisting of a group of source
nodes, one or more hidden layers, and one output
layer, and using a monotonic activation function.
34.02.28
perceptron wielowarstwowy
Sieć jednokierunkowa złożona z grupy węzłów źródłowych, jednej warstwy ukrytej lub większej ich liczby i jednej warstwy wyjściowej, wykorzystująca monotoniczną funkcję aktywacji.
NOTES
UWAGI
1 Each artificial neuron in a multilayered perceptron is
a single-layer perceptron.
1 W perceptronie wielowarstwowym każdy sztuczny
neuron jest perceptronem jednowarstwowym.
2 Multilayered perceptrons can implement any Boolean
function.
2 Perceptrony wielowarstwowe mogą realizować dowolną funkcję boolowską.
14
PN-ISO/IEC 2382-34:2002
34.02.29
radial basis function network
RBF network
A feedforward network in which each hidden neuron
uses a radial basis function as the activation function and the output neurons implement linear combinations of these radial basis functions.
34.02.29
sieć radialnych funkcji bazowych
sieć RBF
Sieć jednokierunkowa, w której każdy neuron ukryty
używa radialnej funkcji bazowej jako funkcji aktywacji a neurony wyjściowe implementują kombinacje liniowe tychże radialnych funkcji bazowych.
34.02.30
back-propagation network
BPN (abbreviation)
feedback-propagation network
A multilayered network using back propagation for
connection weights adjustment during learning.
34.02.30
sieć propagacji wstecznej
BPN (skrót)
Sieć wielowarstwowa wykorzystująca propagację
wsteczną do modyfikowania wag połączeń w trakcie
uczenia się.
34.02.31
self-organizing network
A neural network having a self-organization capability.
34.02.31
sieć samoorganizująca się
Sieć neuronowa mająca zdolność samoorganizacji.
NOTE – A self-organizing network is often designed to
emulate the brain cells’ ability to organize themselves
into behavior or a pattern.
UWAGA – Sieci samoorganizujące się są często projektowane tak, aby symulowały zdolność komórek mózgu do
organizowania się we wzorce dynamiczne lub statyczne.
34.02.32
self-organizing map
SOM (abbreviation)
self-organizing feature map
SOFM (abbreviation)
Kohonen map
A self-organizing network consisting of an output layer,
generally two-dimensional, totally connected to the
source nodes, and using competitive learning.
34.02.32
mapa samoorganizująca się
SOM (skrót)
samoorganizująca się mapa cech
SOFM (skrót)
mapa Kohonena
Sieć samoorganizująca się złożona z warstwy wyjściowej, zwykle dwuwymiarowej, połączonej zupełnie z węzłami źródłowymi, wykorzystująca uczenie
się konkurencyjne.
34.02.33
associative storage
content-addressable storage
associative memory
A storage device able to recall the stored * pattern
that matches an approximating or partial input pattern.
34.02.33
pamięć asocjacyjna
pamięć skojarzeniowa
pamięć adresowana treścią
Urządzenie pamięciowe zdolne odtworzyć zapamiętany * wzorzec najlepiej odpowiadający przybliżonemu lub częściowemu wzorcowi wejściowemu.
NOTES
UWAGI
1 The input pattern can be a part or whole of the address or a pattern as defined in ISO/IEC 2382-28.
1 Wzorzec wejściowy może być częścią lub całością
adresu wzorca lub samego wzorca w rozumieniu definicji z normy ISO/IEC 2382-28.
2 The recalled pattern may be the desired data itself or
constitute a reference to it such as its address.
2 Odtworzony wzorzec może stanowić żądane dane lub
adres będący wskaźnikiem do tych danych.
3 This entry is an improved version of the entry 12.02.27
in ISO/IEC 2382-12:1988.
3 Powyższe hasło stanowi poprawioną wersję hasła
12.02.27 z normy ISO/IEC 2382-12:1988.
34.02.34
Hopfield network
crossbar associative network
CAN (abbreviation)
A totally connected network having only visible neurons that are cyclically updated until a stable state is
obtained.
34.02.34
sieć Hopfielda
CAN (skrót)
Sieć połączona zupełnie zawierająca wyłącznie neurony widoczne, które są aktualizowane cyklicznie aż
do osiągnięcia stanu stabilnego.
PN-ISO/IEC 2382-34:2002
15
NOTES
UWAGI
1 A Hopfield network has a finite number of stable states
corresponding to local minimums of an energy function.
During learning, the connection weights are adjusted so
that the stable states correspond to the patterns to be
stored. After applying an input pattern, the network
evolves toward the closest stored pattern.
1 Sieć Hopfielda wykazuje skończoną liczbę stanów stabilnych odpowiadających minimom lokalnym funkcji energii. Podczas uczenia się, * wagi połączeń są zmieniane
tak, że stany stabilne odpowiadają wzorcom do zapamiętania. Po przyłożeniu wzorca wejściowego stan sieci ewoluuje w kierunku najbliższego zapamiętanego wzorca.
2 A Hopfield network may be a synchronous neural network or an asynchronous neural network.
2 Sieć Hopfielda może być synchroniczną siecią neuronową lub asynchroniczną siecią neuronową.
3 The Hopfield network is mainly used as an associative storage but has also applications in optimization.
3 Sieci Hopfielda wykorzystywane są głównie jako pamięci asocjacyjne, ale są także stosowane w optymalizacji.
34.02.35
Boltzmann machine
A totally connected network having both visible neurons and hidden neurons that are cyclically updated
according to a probability distribution.
34.02.35
maszyna Boltzmanna
Sieć połączona zupełnie zawierająca zarówno neurony widoczne, jak i neurony ukryte, które są aktualizowane cyklicznie zgodnie z pewnym rozkładem
prawdopodobieństwa.
NOTES
UWAGI
1 During learning, some visible neurons are clamped
onto specific states.
1 Podczas uczenia się niektóre stany neuronów widocznych są ustalone w formie narzuconych wartości.
2 There is some formal equivalence between statistical thermodynamics and the dynamic behavior of the
Boltzmann machine.
2 Istnieje pewna odpowiedniość formalna miedzy termodynamiką statystyczną a dynamiką maszyny Boltzmanna.
34.02.36
adaptive resonance theory network
ART network
A neural network in which the learning algorithm updates the stored prototypes characterizing categories if the input* pattern is sufficiently similar to one
of them, or otherwise creates a new category with
the input as prototype.
34.02.36
sieć teorii rezonansu adaptacyjnego
sieć ART
Sieć neuronowa, w której algorytm uczenia się aktualizuje zapamiętane prototypy charakteryzujące kategorie, jeżeli wzorzec * wejściowy jest dostatecznie
podobny do jednego z nich, w przeciwnym przypadku tworzona jest nowa kategoria, której prototypem
jest aktualne wejście.
NOTE – ART networks implement a compromise between plasticity (the ability to learn) and stability (no erasure or corruption of existing knowledge).
UWAGA – Sieci ART realizują kompromis między plastycznością (zdolnością uczenia się) a stabilnością (zachowaniem dotychczasowej wiedzy).
34.02.37
winner-takes-all network
A neural network in which the strongest artificial neuron in a layer may inhibit the others in the same layer.
34.02.37
sieć typu „wszystko dla zwycięzcy”
Sieć neuronowa, w której najsilniej pobudzony sztuczny neuron w danej warstwie może powstrzymywać
pobudzenie innych neuronów w danej warstwie.
NOTE – A winner-takes-all network uses a type of competitive learning.
UWAGA – Sieci typu „wszystko dla zwycięzcy” wykorzystują rodzaj uczenia się konkurencyjnego.
34.02.38
winner-takes-more network
A neural network in which all competing artificial neurons with an input value above average may stay active.
34.02.38
sieć typu „więcej dla zwycięzcy”
Sieć neuronowa, w której wszystkie sztuczne neurony z wartością wejściową większą niż średnia mogą
pozostać pobudzone.
NOTE – A winner-takes-more network uses a type of
competitive learning.
UWAGA – Sieci typu „więcej dla zwycięzcy” wykorzystują
rodzaj uczenia się konkurencyjnego.
16
PN-ISO/IEC 2382-34:2002
34.02.39
adaptive neural network
A neural network that is able to adjust its performance
characteristics according to changes in its environment.
34.02.39
adaptacyjna sieć neuronowa
Sieć neuronowa, która jest w stanie dostosować charakterystykę swojego działania do zmian w otoczeniu.
34.02.40
discrimination network
A neural network in which the set of tests used to
classify a collection of objects, situations, or events
is implemented according to predetermined features.
34.02.40
sieć dyskryminacyjna
Sieć neuronowa działająca jak zestaw testów do klasyfikacji zbioru obiektów, sytuacji lub zdarzeń w oparciu o wcześniej określone cechy.
34.02.41
hierarchical neural network
hierarchical artificial neural network
A neural network consisting of several stages of subnetworks, in which the processing occurs from one
stage to the next.
34.02.41
hierarchiczna sieć neuronowa
hierarchiczna sztuczna sieć neuronowa
Sieć neuronowa złożona z kilku poziomów podsieci,
w której zachodzi przetwarzanie pomiędzy poziomami.
34.03 Connections and functions
34.03 Połączenia i funkcje
34.03.01
neural connection
neural link
synaptic interconnection (deprecated)
synaptic connection (deprecated)
A link between two artificial neurons that is defined
by the source neuron, the destination neuron, and
a connection weight.
34.03.01
połączenie neuronowe
łącze neuronowe
łącze synaptyczne (nie zalecane)
połączenie synaptyczne (nie zalecane)
Łącze pomiędzy dwoma sztucznymi neuronami zdefiniowane przez podanie neuronu źródłowego, neuronu docelowego oraz wagi połączenia.
34.03.02
connection weight (in neural networks)
connection strength
synaptic weight (deprecated)
A coefficient that multiplies an input value of a artificial
neuron before it is combined with other input values.
34.03.02
waga połączenia (w sieciach neuronowych)
waga synapsy (nie zalecane)
Współczynnik mnożący wartość wejściową * sztucznego neuronu przed zagregowaniem jej z innymi wartościami wejściowymi.
34.03.03
dynamically programmable connection
A neural connection whose connection weight may
be modified dynamically.
34.03.03
połączenie dynamicznie programowalne
Połączenie neuronowe, dla którego waga połączenia
może być modyfikowana dynamicznie.
34.03.04
bundle
A collection of neural connections between slabs.
34.03.04
wiązka
Zbiór połączeń neuronowych pomiędzy płytkami.
34.03.05
learning (in neural networks)
The process by which a neural network improves its
performance by adjustment of its parameters in response to a succession of input* patterns.
34.03.05
uczenie się (w sieciach neuronowych)
Proces, podczas którego sieć neuronowa doskonali
swoje działanie przez modyfikowanie swoich parametrów w odpowiedzi na kolejne wzorce * wejściowe.
NOTE – In general, learning consists in connection
weights adjustment.
UWAGA – Najczęściej uczenie się polega na modyfikowaniu wag połączeń.
PN-ISO/IEC 2382-34:2002
17
34.03.06
learning algorithm (in neural networks)
An algorithm that adjusts the parameters of a neural
network during learning.
34.03.06
algorytm uczenia się (w sieciach neuronowych)
Algorytm modyfikujący parametry sieci neuronowej
podczas uczenia się.
NOTE – In general, a learning algorithm adjusts the connection weights.
UWAGA – Najczęściej algorytm uczenia się modyfikuje
wagi połączeń.
34.03.07
connectionist learning
Learning through changes in the connection weights
of artificial neurons in a neural network.
34.03.07
uczenie się konekcjonistyczne
Uczenie się poprzez zmiany wag połączeń pomiędzy sztucznymi neuronami w sieci neuronowej.
34.03.08
learning rate
A parameter that regulates the magnitude of changes
to connection weights during learning.
34.03.08
tempo uczenia się
Parametr regulujący szybkość zmian wag połączeń
podczas uczenia się.
NOTE – The amount of change of a connection weight
is the product of a value given by the learning algorithm
and a coefficient which is the learning rate.
UWAGA – Pojedyncza zmiana wagi połączenia jest iloczynem wartości wyznaczanej przez algorytm uczenia
się oraz współczynnika wyrażającego tempo uczenia się.
34.03.09
self-organization
The capability of an unsupervised learning * neural
network to adjust its connection weights according
to the features found in the input * patterns.
34.03.09
samoorganizacja
Zdolność sieci neuronowej stosującej uczenie się bez
nadzoru do modyfikowania swoich wag połączeń zgodnie z cechami znalezionymi we wzorcach * wejściowych.
34.03.10
error-correction learning
Supervised learning using the error * signal, that is
the difference between the desired output value and
the actual output value, to modify the connection
weights.
34.03.10
uczenie się korekcyjne
Uczenie się z nadzorem wykorzystujące do modyfikacji wag połączeń * sygnał * błędu, to znaczy różnicę między pożądaną wartością wyjściową a rzeczywistą wartością wyjściową.
34.03.11
Hebbian learning
Learning that increases the connection weight of a
neural connection if the two artificial neurons are activated synchronously and decreases the connection
weight if the neurons are activated asynchronously.
34.03.11
uczenie się metodą Hebba
Uczenie się, w którym waga połączenia jest zwiększana dla danego połączenia neuronowego, jeżeli oba
neurony są jednocześnie pobudzone, a zmniejszana, gdy neurony nie są pobudzone jednocześnie.
NOTE – In the simplest case, the amount of change of
the connection weight is proportional to the product of
the two output values.
UWAGA – W najprostszym przypadku zmiana wagi połączenia jest proporcjonalna do iloczynu obu wartości wyjściowych.
34.03.12
competitive learning
Learning in which artificial neurons compete for the
right to respond to a given subset of input *patterns.
34.03.12
uczenie się konkurencyjne
Uczenie sie, w którym sztuczne neurony rywalizują
o prawo odpowiedzi na dany podzbiór wzorców * wejściowych.
NOTE – The response of a neuron to an input pattern
tends to inhibit other neurons.
UWAGA – Odpowiedź jednego z neuronów hamuje pobudzenie innych neuronów.
18
PN-ISO/IEC 2382-34:2002
34.03.13
activation function
A function that computes the output value of an artificial neuron based o its input values and its current
connection weights.
34.03.13
funkcja aktywacji
funkcja pobudzenia
Funkcja wyznaczająca wartość wyjściową * sztucznego neuronu w oparciu o jego wartości wejściowe
oraz bieżące wagi połączeń.
NOTE – The output value may be continuous or discrete.
UWAGA – Wartość wyjściowa może być ciągła lub dyskretna.
34.03.14
radial basis function
RBF (abbreviation)
An activation function that is centered at a point specified by the connection weight vector and whose position and width are adjusted by learning.
34.03.14
radialna funkcja bazowa
RBF (skrót)
Funkcja aktywacji wycentrowana w punkcie określonym przez wagi połączeń, której pozycja i miara zasięgu są modyfikowane podczas uczenia się.
NOTES
UWAGI
1 In a radial basis function network, the radial basis
functions are the activation functions of the hidden neurons, and constitute a basis set to represent the patterns.
1 W sieci radialnych funkcji bazowych, radialne funkcje
bazowe są funkcjami aktywacji neuronów ukrytych i stanowią podstawę reprezentacji wzorców.
2 A radial basis function has a maximum or a minimum, in contrast with the usual activation functions that
are monotonic. The most used radial basis function is
the Gaussian function.
2 W przeciwieństwie do typowych funkcji aktywacji, które są monotoniczne, radialna funkcja bazowa ma maksimum lub minimum. Najpopularniejszą radialną funkcją bazową jest funkcja gaussowska.
34.03.15
connection updates per second
CUPS (abbreviation)
The number of neural connection updates per second
in the learning mode.
34.03.15
liczba aktualizacji połączeń na sekundę
CUPS (skrót)
Liczba aktualizacji połączeń neuronowych na sekundę w trybie uczenia się.
34.03.16
feedforward propagation
forward propagation
In a multilayered network, the propagation of connection weights adjustment, layer by layer, from the input
layer toward the output of the network.
34.03.16
propagacja prosta
propagacja postępowa
W sieci wielowarstwowej, propagacja zmian wag połączeń, przebiegająca warstwa po warstwie, począwszy od warstwy wejściowej w kierunku wyjścia sieci.
NOTE – Not to be confused with feedforward network.
UWAGA – Nie mylić terminu z terminem sieć jednokierunkowa.
34.03.17
back propagation
feedback propagation
In a multilayered network, the propagation of connection weights adjustment, layer by layer, from the output layer toward the input of the network.
34.03.17
propagacja wsteczna
W sieci wielowarstwowej, propagacja zmian wag połączeń, przebiegająca warstwa po warstwie, począwszy od warstwy wyjściowej w kierunku wejścia sieci.
NOTE – Typically back propagation is used in connection with error-correction learning.
UWAGA – Zwykle propagacja wsteczna jest używana
podczas uczenia się korekcyjnego.
34.03.18
training (in neural networks)
A procedure for teaching a neural network to make
an association between a sample of input values and
the correct output values.
34.03.18
trenowanie (w sieciach neuronowych)
Procedura nauczania sieci neuronowej, na podstawie próby, kojarzenia wartości wejściowych z poprawnymi wartościami wyjściowymi.
PN-ISO/IEC 2382-34:2002
19
34.03.19
epoch (in neural networks)
A sequence of training * patterns introduced into a
neural network.
34.03.19
epoka (w sieciach neuronowych)
Wprowadzenie ciągu wzorców treningowych do sieci
neuronowej.
34.03.20
batch training
Training in which the connection weights are adjusted
only after each epoch is presented.
34.03.20
trenowanie wsadowe
Trenowanie, w którym wagi połączeń są modyfikowane tylko po każdej epoce.
34.03.21
interactive training
pattern training
Training in which the connection weights are adjusted
after each input * pattern is presented.
34.03.21
trenowanie interaktywne
trenowanie wzorców
Trenowanie, w którym wagi połączeń są modyfikowane po prezentacji każdego wzorca * wejściowego.
PN-ISO/IEC 2382-34:2002
20
English alphabetical index
A
activation
acyclic
adaptive
algorithm
ANN
ART
artificial
associative
asynchronous
activation function ........................ 34.03.13
acyclic network ........................... 34.02.25
adaptive resonance theory
network ........................................ 34.02.36
adaptive neural network .............. 34.02.39
learning algorithm
(in neural networks) .................... 34.03.06
ANN (abbreviation) ...................... 34.01.06
ART network ................................ 34.02.36
artificial neural network ............... 34.01.06
artificial neuron ............................ 34.01.07
hierarchical artificial neural
network ........................................ 34.02.41
associative storage ..................... 34.02.33
associative memory ..................... 34.02.33
crossbar associative network .... 34.02.34
asynchronous neural network .... 34.02.24
B
back
back propagation ......................... 34.03.17
back-propagation back-propagation network .......... 34.02.30
basis
radial basis function .................... 34.03.14
radial basis function network ...... 34.02.29
batch
batch training ............................... 34.03.20
Boltzmann
Boltzmann machine ...................... 34.02.35
bottleneck
bottleneck layer ............................ 34.02.11
BPN
BPN (abbreviation) ....................... 34.02.30
bundle
bundle ........................................... 34.03.04
D
decision
diluted
discrimination
dynamically
E
epoch
error-correction
CAN (abbreviation) ...................... 34.02.34
stable coalition ............................. 34.02.22
competitive learning ..................... 34.03.12
neural computer ........................... 34.01.08
partially connected network ........ 34.02.17
totally connected network ........... 34.02.18
fully connected network .............. 34.02.18
randomly connected network ..... 34.02.19
connection
connection science ..................... 34.01.01
neural connection ........................ 34.03.01
synaptic connection
(deprecated) ................................ 34.03.01
connection weight
(in neural networks) .................... 34.03.02
connection strength ..................... 34.03.02
dynamically programmable
connection ................................... 34.03.03
connection updates per
second ......................................... 34.03.15
connectionism
connectionism .............................. 34.01.01
connectionist
connectionist model ..................... 34.01.02
connectionist learning .................. 34.03.07
content-addressable
content-addressable storage ...... 34.02.33
crossbar
crossbar associative network .... 34.02.34
CUPS
CUPS (abbreviation) .................... 34.03.15
epoch (in neural networks) ......... 34.03.19
error-correction learning ............. 34.03.10
F
feature
self-organizing feature map ........ 34.02.32
feedback
feedback propagation .................. 34.03.17
feedback-propagation
feedback-propagation
network ........................................ 34.02.30
feedforward
feedforward network .................. 34.02.25
feedforward propagation ............ 34.03.16
forward
forward propagation ................... 34.03.16
forward-propagation
forward-propagation network .... 34.02.25
fully
fully connected network .............. 34.02.18
function
radial basis function network ...... 34.02.29
activation function ........................ 34.03.13
radial basis function .................... 34.03.14
C
CAN
coalition
competitive
computer
connected
decision layer ............................... 34.02.08
diluted network ............................ 34.02.17
discrimination network ................. 34.02.40
dynamically programmable
connection ................................... 34.03.03
H
Hebbian
heterarchy
hidden
hierarchical
hierarchy
Hopfield
Hebbian learning .......................... 34.03.11
heterarchy ................................... 34.01.04
hidden neuron .............................. 34.02.05
hidden layer ................................. 34.02.10
hierarchical neural network ......... 34.02.41
hierarchical artificial neural
network ........................................ 34.02.41
hierarchy ...................................... 34.01.05
Hopfield network .......................... 34.02.34
I
input
interactive
interconnection
input neuron ................................. 34.02.02
input layer .................................... 34.02.07
interactive training ........................ 34.03.21
synaptic interconnection
(deprecated) ................................ 34.03.01
K
Kohonen
Kohonen map ............................... 34.02.32
PN-ISO/IEC 2382-34:2002
L
layer
layered
learning
link
layer (in neural networks) ........... 34.02.06
input layer .................................... 34.02.07
output layer .................................. 34.02.08
decision layer ............................... 34.02.08
visible layer .................................. 34.02.09
hidden layer ................................. 34.02.10
bottleneck layer ............................ 34.02.11
single-layer perceptron ............... 34.02.27
layered network ........................... 34.02.13
single-layered network ................ 34.02.15
learning (in neural networks) ...... 34.03.05
learning algorithm (in neural
networks) .................................... 34.03.06
connectionist learning .................. 34.03.07
learning rate ................................. 34.03.08
error-correction learning ............. 34.03.10
Hebbian learning .......................... 34.03.11
competitive learning ..................... 34.03.12
neural link ..................................... 34.03.01
M
machine
map
memory
model
multilayered
Boltzmann machine ...................... 34.02.35
self-organizing map ..................... 34.02.32
self-organizing feature map ........ 34.02.32
Kohonen map ............................... 34.02.32
associative memory ..................... 34.02.33
connectionist model ..................... 34.01.02
neural-network model .................. 34.01.10
multilayered network ................... 34.02.16
multilayered perceptron ............... 34.02.28
neural
neural-network
neurochip
neurocomputer
neurode
neuron
NN
node
nonlayered
N
neural net ..................................... 34.01.06
neural network ............................. 34.01.06
artificial neural network ............... 34.01.06
neural-network model .................. 34.01.10
layered network ........................... 34.02.13
nonlayered network .................... 34.02.14
single-layered network ................ 34.02.15
multilayered network ................... 34.02.16
partially connected network ........ 34.02.17
diluted network ............................ 34.02.17
totally connected network ........... 34.02.18
fully connected network .............. 34.02.18
randomly connected network ..... 34.02.19
random network ........................... 34.02.19
weight-sharing network .............. 34.02.20
synchronous neural network ...... 34.02.23
asynchronous neural network .... 34.02.24
feedforward network .................. 34.02.25
forward-propagation network .... 34.02.25
acyclic network ........................... 34.02.25
recurrent network ........................ 34.02.26
radial basis function network ...... 34.02.29
RBF network ................................ 34.02.29
back-propagation network .......... 34.02.30
feedback-propagation network ... 34.02.30
self-organizing network .............. 34.02.31
Hopfield network .......................... 34.02.34
crossbar associative network .... 34.02.34
adaptive resonance theory
network ........................................ 34.02.36
ART network ................................ 34.02.36
winner-takes-all network ............ 34.02.37
winner-takes-more network ........ 34.02.38
adaptive neural network .............. 34.02.39
discrimination network ................. 34.02.40
hierarchical neural network ......... 34.02.41
hierarchical artificial neural
network ........................................ 34.02.41
neural network ............................. 34.01.06
neural net ..................................... 34.01.06
artificial neural network ............... 34.01.06
neural computer ........................... 34.01.08
neural-network model .................. 34.01.10
synchronous neural network ...... 34.02.23
asynchronous neural network .... 34.02.24
adaptive neural network .............. 34.02.39
hierarchical neural network ......... 34.02.41
hierarchical artificial neural
network ........................................ 34.02.41
neural connection ........................ 34.03.01
neural link ..................................... 34.03.01
neural-network model .................. 34.01.10
neurochip ..................................... 34.01.09
neurocomputer ............................. 34.01.08
neurode (deprecated) ................. 34.01.07
artificial neuron ............................ 34.01.07
input neuron ................................. 34.02.02
output neuron ............................... 34.02.03
visible neuron ............................... 34.02.04
hidden neuron .............................. 34.02.05
NN (abbreviation) ......................... 34.01.06
source node ................................. 34.02.01
nonlayered network .................... 34.02.14
O
output
net
network
21
output neuron ............................... 34.02.03
output layer .................................. 34.02.08
P
partially
pattern
per
perceptron
programmable
propagation
partially connected network ........ 34.02.17
pattern training ............................. 34.03.21
connection updates per second . 34.03.15
single-layer perceptron ............... 34.02.27
simple perceptron ........................ 34.02.27
perceptron ................................... 34.02.27
multilayered perceptron ............... 34.02.28
dynamically programmable
connection ................................... 34.03.03
feedforward propagation ............ 34.03.16
forward propagation ................... 34.03.16
back propagation ......................... 34.03.17
feedback propagation .................. 34.03.17
R
radial
random
randomly
rate
RBF
recurrent
representation
resonance
radial basis function .................... 34.03.14
radial basis function network ...... 34.02.29
random network ........................... 34.02.19
randomly connected network ..... 34.02.19
learning rate ................................. 34.03.08
RBF network ................................ 34.02.29
RBF (abbreviation) ....................... 34.03.14
recurrent network ........................ 34.02.26
subsymbolic representation ........ 34.01.03
adaptive resonance theory
network ........................................ 34.02.36
PN-ISO/IEC 2382-34:2002
22
T
S
science
second
connection science ..................... 34.01.01
connection updates per
second ......................................... 34.03.15
self-organization self-organization .......................... 34.03.09
self-organizing
self-organizing network .............. 34.02.31
self-organizing map ..................... 34.02.32
self-organizing feature map ........ 34.02.32
simple
simple perceptron ........................ 34.02.27
single-layer
single-layer perceptron ............... 34.02.27
single-layered
single-layered network ................ 34.02.15
slab
slab ............................................... 34.02.12
SOFM
SOFM (abbreviation) .................... 34.02.32
SOM
SOM (abbreviation) ...................... 34.02.32
source
source node ................................. 34.02.01
stable
stable state (in neural
networks) .................................... 34.02.21
stable coalition ............................. 34.02.22
state
stable state (in neural
networks) .................................... 34.02.21
storage
associative storage ..................... 34.02.33
content-addressable storage ...... 34.02.33
strength
connection strength ..................... 34.03.02
subsymbolic
subsymbolic representation ........ 34.01.03
synaptic
synaptic interconnection
(deprecated) ................................ 34.03.01
synaptic connection
(deprecated) ................................ 34.03.01
synaptic weight
(deprecated) ................................ 34.03.02
synchronous
synchronous neural network ...... 34.02.23
theory
totally
training
adaptive resonance theory
network ........................................ 34.02.36
totally connected network ........... 34.02.18
training (in neural networks) ....... 34.03.18
batch training ............................... 34.03.20
interactive training ........................ 34.03.21
pattern training ............................. 34.03.21
U
updates
connection updates per second . 34.03.15
V
visible
visible neuron ............................... 34.02.04
visible layer .................................. 34.02.09
W
weight
connection weight
(in neural networks) .................... 34.03.02
synaptic weight (deprecated) ..... 34.03.02
weight-sharing
weight-sharing network .............. 34.02.20
winner-takes-all winner-takes-all network ............ 34.02.37
winner-takes-more
winner-takes-more network ........ 34.02.38
PN-ISO/IEC 2382-34:2002
23
Indeks alfabetyczny terminów polskich
H
A
acykliczny
adaptacyjny
adresowany
aktualizacja
aktywacja
algorytm
ANN
ART
asocjacyjny
asynchroniczny
sieć acykliczna ............................ 34.02.25
sieć teorii rezonansu
adaptacyjnego ............................. 34.02.36
adaptacyjna sieć neuronowa ..... 34.02.39
pamięć adresowana treścią ........ 34.02.33
liczba aktualizacji połączeń
na sekundę .................................. 34.03.15
funkcja aktywacji ......................... 34.03.13
algorytm uczenia się
(w sieciach neuronowych) ......... 34.03.06
ANN (skrót) .................................. 34.01.06
sieć ART ....................................... 34.02.36
pamięć asocjacyjna ..................... 34.02.33
asynchroniczna sieć
neuronowa .................................. 34.02.24
B
bazowy
Boltzmann
BPN
sieć radialnych funkcji
bazowych ...................................... 34.02.29
radialna funkcja bazowa ............. 34.03.14
maszyna Boltzmanna .................. 34.02.35
BPN (skrót) ................................... 34.02.30
C
całkowicie
CAN
cecha
CUPS
częściowo
sieć całkowicie połączona .......... 34.02.18
CAN (skrót) .................................. 34.02.34
samoorganizująca się mapa
cech ............................................. 34.02.32
CUPS (skrót) ................................ 34.03.15
sieć częściowo połączona ......... 34.02.17
D
decyzyjny
dynamicznie
warstwa decyzyjna .................... 34.02.08
połączenie dynamicznie
programowalne ............................ 34.03.03
dyskryminacyjny sieć dyskryminacyjna .................. 34.02.40
E
epoka
Hebb
heterarchia
hierarchia
hierarchiczny
Hopfield
I
interaktywny
jednokierunkowy sieć jednokierunkowa .................. 34.02.25
jednowarstwowy sieć jednowarstwowa ................ 34.02.15
perceptron jednowarstwowy ..... 34.02.27
K
koalicja
Kohonen
komputer
konekcjonistyczny
konekcjonizm
konkurencyjny
korekcyjny
liczba
losowo
losowy
warstwa wąskiego gardła .......... 34.02.11
liczba aktualizacji połączeń
na sekundę .................................. 34.03.15
sieć połączona losowo ............... 34.02.19
sieć losowa ................................. 34.02.19
Ł
łącze
łącze neuronowe ......................... 34.03.01
łącze synaptyczne
(nie zalecane) .............................. 34.03.01
waga połączenia (w sieciach
neuronowych) ............................. 34.03.02
połączenie dynamicznie
programowalne ............................ 34.03.03
liczba aktualizacji połączeń
na sekundę .................................. 34.03.15
M
mapa
G
gardło
koalicja stabilna ............................ 34.02.22
mapa Kohonena ........................... 34.02.32
komputer neuronowy .................. 34.01.08
model konekcjonistyczny ............. 34.01.02
uczenie się konekcjonistyczne ... 34.03.07
konekcjonizm ................................ 34.01.01
uczenie się konkurencyjne .......... 34.03.12
uczenie się korekcyjne ................ 34.03.10
L
epoka (w sieciach
neuronowych) ............................. 34.03.19
sieć radialnych funkcji
bazowych .................................... 34.02.29
funkcja aktywacji ......................... 34.03.13
funkcja pobudzenia ..................... 34.03.13
radialna funkcja bazowa ............. 34.03.14
trenowanie interaktywne ............ 34.03.21
J
F
funkcja
uczenie się metodą Hebba .......... 34.03.11
heterarchia ................................... 34.01.04
hierarchia ..................................... 34.01.05
hierarchiczna sieć neuronowa ... 34.02.41
hierarchiczna sztuczna sieć
neuronowa .................................. 34.02.41
sieć Hopfielda .............................. 34.02.34
maszyna
metoda
mapa samoorganizująca się ........ 34.02.32
samoorganizująca się mapa
cech ............................................. 34.02.32
mapa Kohonena ........................... 34.02.32
maszyna Boltzmanna .................. 34.02.35
uczenie się metodą Hebba .......... 34.03.11
PN-ISO/IEC 2382-34:2002
24
model
model konekcjonistyczny ............. 34.01.02
model sieci neuronowej ............... 34.01.10
N
neurokomputer
neuron
neuronowy
niewarstwowy
NN
neurokomputer ............................. 34.01.08
sztuczny neuron .......................... 34.01.07
neuron wejściowy ....................... 34.02.02
neuron wyjściowy ....................... 34.02.03
neuron widoczny ......................... 34.02.04
neuron ukryty ............................... 34.02.05
sieć neuronowa ........................... 34.01.06
sztuczna sieć neuronowa .......... 34.01.06
komputer neuronowy .................. 34.01.08
neuronowy układ scalony ........... 34.01.09
model sieci neuronowej ............... 34.01.10
model sieci neuronowej ............... 34.01.10
synchroniczna sieć
neuronowa .................................. 34.02.23
asynchroniczna sieć
neuronowa .................................. 34.02.24
adaptacyjna sieć neuronowa ..... 34.02.39
hierarchiczna sieć neuronowa ... 34.02.41
hierarchiczna sztuczna sieć
neuronowa .................................. 34.02.41
połączenie neuronowe ................ 34.03.01
łącze neuronowe ......................... 34.03.01
sieć niewarstwowa .................... 34.02.14
NN (skrót) ..................................... 34.01.06
P
pamięć
perceptron
płytka
pobudzenie
połączenie
połączony
postępowy
programowalny
propagacja
prosty
pamięć asocjacyjna ..................... 34.02.33
pamięć skojarzeniowa ................. 34.02.33
pamięć adresowana treścią ........ 34.02.33
perceptron jednowarstwowy ..... 34.02.27
perceptron prosty ........................ 34.02.27
perceptron ................................... 34.02.27
perceptron wielowarstwowy ..... 34.02.28
płytka ............................................ 34.02.12
funkcja pobudzenia ..................... 34.03.13
połączenie neuronowe ................ 34.03.01
połączenie synaptyczne
(nie zalecane) .............................. 34.03.01
sieć częściowo połączona ......... 34.02.17
sieć połączona zupełnie .............. 34.02.18
sieć całkowicie połączona .......... 34.02.18
sieć połączona losowo ............... 34.02.19
propagacja postępowa ............... 34.03.16
połączenie dynamicznie
programowalne ............................ 34.03.03
propagacja prosta ........................ 34.03.16
propagacja postępowa ............... 34.03.16
propagacja wsteczna ................. 34.03.17
sieć propagacji wstecznej .......... 34.02.30
perceptron prosty ........................ 34.02.27
propagacja prosta ........................ 34.03.16
R
radialny
RBF
rekurencyjny
reprezentacja
rezonans
rozrzedzony
sieć radialnych funkcji
bazowych ...................................... 34.02.29
radialna funkcja bazowa ............. 34.03.14
sieć RBF ....................................... 34.02.29
RBF (skrót) ................................... 34.03.14
sieć rekurencyjna ........................ 34.02.26
reprezentacja subsymboliczna ... 34.01.03
sieć teorii rezonansu
adaptacyjnego ............................. 34.02.36
sieć rozrzedzona ......................... 34.02.17
S
samoorganizacja samoorganizacja .......................... 34.03.09
samoorganizujący sieć samoorganizująca się .......... 34.02.31
mapa samoorganizująca się ........ 34.02.32
samoorganizująca się mapa
cech ............................................. 34.02.32
scalony
neuronowy układ scalony ........... 34.01.09
sekunda
liczba aktualizacji połączeń
na sekundę .................................. 34.03.15
sieć
sieć neuronowa ........................... 34.01.06
sztuczna sieć neuronowa .......... 34.01.06
model sieci neuronowej ............... 34.01.10
sieć warstwowa ......................... 34.02.13
sieć niewarstwowa .................... 34.02.14
sieć jednowarstwowa ................ 34.02.15
sieć wielowarstwowa ................ 34.02.16
sieć częściowo połączona ......... 34.02.17
sieć rozrzedzona ......................... 34.02.17
sieć połączona zupełnie .............. 34.02.18
sieć całkowicie połączona .......... 34.02.18
sieć połączona losowo ............... 34.02.19
sieć losowa ................................. 34.02.19
sieć o wagach współdzielonych 34.02.20
synchroniczna sieć neuronowa . 34.02.23
asynchroniczna sieć neuronowa 34.02.24
sieć jednokierunkowa .................. 34.02.25
sieć acykliczna ............................ 34.02.25
sieć rekurencyjna ........................ 34.02.26
sieć radialnych funkcji
bazowych ...................................... 34.02.29
sieć RBF ....................................... 34.02.29
sieć propagacji wstecznej .......... 34.02.30
sieć samoorganizująca się .......... 34.02.31
sieć Hopfielda .............................. 34.02.34
sieć teorii rezonansu
adaptacyjnego ............................. 34.02.36
sieć ART ....................................... 34.02.36
sieć typu „wszystko dla
zwycięzcy” .................................. 34.02.37
sieć typu „więcej dla zwycięzcy” 34.02.38
adaptacyjna sieć neuronowa ..... 34.02.39
sieć dyskryminacyjna .................. 34.02.40
hierarchiczna sieć neuronowa ... 34.02.41
hierarchiczna sztuczna sieć
neuronowa .................................. 34.02.41
skojarzeniowy
pamięć skojarzeniowa ................. 34.02.33
SOFM
SOFM (skrót) ................................ 34.02.32
SOM
SOM (skrót) .................................. 34.02.32
stabilny
stan stabilny (w sieciach
neuronowych) ............................. 34.02.21
koalicja stabilna ............................ 34.02.22
stan
stan stabilny (w sieciach
neuronowych) ............................. 34.02.21
subsymboliczny reprezentacja subsymboliczna ... 34.01.03
synapsa
waga synapsy (nie zalecane) .... 34.03.02
synaptyczny
łącze synaptyczne
(nie zalecane) .............................. 34.03.01
połączenie synaptyczne
(nie zalecane) .............................. 34.03.01
synchroniczny
synchroniczna sieć neuronowa . 34.02.23
sztuczny
sztuczna sieć neuronowa .......... 34.01.06
sztuczny neuron .......................... 34.01.07
hierarchiczna sztuczna sieć
neuronowa .................................. 34.02.41
T
tempo
teoria
tempo uczenia się ........................ 34.03.08
sieć teorii rezonansu
adaptacyjnego ............................. 34.02.36
PN-ISO/IEC 2382-34:2002
trenowanie
treść
typ
trenowanie (w sieciach
neuronowych) ............................. 34.03.18
trenowanie wsadowe ................. 34.03.20
trenowanie interaktywne ............ 34.03.21
trenowanie wzorców ................. 34.03.21
pamięć adresowana treścią ........ 34.02.33
sieć typu „wszystko dla
zwycięzcy” .................................. 34.02.37
sieć typu „więcej dla zwycięzcy” 34.02.38
U
uczenie
układ
ukryty
uczenie się (w sieciach
neuronowych) ............................. 34.03.05
algorytm uczenia się
(w sieciach neuronowych) ......... 34.03.06
uczenie się konekcjonistyczne ... 34.03.07
tempo uczenia się ........................ 34.03.08
uczenie się korekcyjne ................ 34.03.10
uczenie się metodą Hebba .......... 34.03.11
uczenie się konkurencyjne .......... 34.03.12
neuronowy układ scalony ........... 34.01.09
neuron ukryty ............................... 34.02.05
warstwa ukryta ........................... 34.02.10
25
warstwa decyzyjna .................... 34.02.08
warstwa widoczna ..................... 34.02.09
warstwa ukryta ........................... 34.02.10
warstwa wąskiego gardła .......... 34.02.11
warstwowy
sieć warstwowa ......................... 34.02.13
wąski
warstwa wąskiego gardła .......... 34.02.11
wejściowy
neuron wejściowy ....................... 34.02.02
warstwa wejściowa ................... 34.02.07
węzeł
węzeł źródłowy ........................... 34.02.01
wiązka
wiązka .......................................... 34.03.04
widoczny
neuron widoczny ......................... 34.02.04
warstwa widoczna ..................... 34.02.09
wielowarstwowy sieć wielowarstwowa ................ 34.02.16
perceptron wielowarstwowy ..... 34.02.28
więcej
sieć typu „więcej dla zwycięzcy” 34.02.38
wsadowy
trenowanie wsadowe ................. 34.03.20
współdzielony
sieć o wagach współdzielonych 34.02.20
wsteczny
propagacja wsteczna ................. 34.03.17
sieć propagacji wstecznej .......... 34.02.30
wszystko
sieć typu „wszystko dla
zwycięzcy” .................................. 34.02.37
wyjściowy
neuron wyjściowy ....................... 34.02.03
warstwa wyjściowa ................... 34.02.08
wzorzec
trenowanie wzorców ................. 34.03.21
Z
W
waga
warstwa
sieć o wagach współdzielonych 34.02.20
waga połączenia (w sieciach
neuronowych) ............................. 34.03.02
waga synapsy (nie zalecane) .... 34.03.02
warstwa (w sieciach
neuronowych) ............................. 34.02.06
warstwa wejściowa ................... 34.02.07
warstwa wyjściowa ................... 34.02.08
zupełnie
zwycięzca
sieć połączona zupełnie .............. 34.02.18
sieć typu „wszystko dla
zwycięzcy” .................................. 34.02.37
sieć typu „więcej dla zwycięzcy” 34.02.38
Ź
źródłowy
węzeł źródłowy ........................... 34.02.01
PN-ISO/IEC 2382-34:2002
26
Załącznik krajowy NA
(informacyjny)
NORMY I DOKUMENTY POWOŁANE
W TREŚCI NORMY MIĘDZYNARODOWEJ
I ICH ODPOWIEDNIKI KRAJOWE
Normy powołane w ISO/IEC
Odpowiedniki krajowe
ISO/IEC 2382-1:1993 1)
– PN-ISO/IEC 2382-1:1996 Technika informatyczna – Terminologia – Terminy podstawowe
ISO/IEC 2382-12:1988 1)
– PN-91/T-01016.12 Przetwarzanie informacji i komputery – Terminologia
– Urządzenia peryferyjne
ISO/IEC 2382-28:1995
– PN-ISO/IEC 2382-28:2001 Technika informatyczna – Terminologia –
Część 28:Sztuczna inteligencja – Pojęcia podstawowe i systemy eksperckie
ISO/IEC 2382-31:1997
– Pr PN-ISO/IEC 2382-31 Technika informatyczna – Terminologia – Sztuczna
inteligencja – Uczenie się maszynowe
1)
Obecnie w nowelizacji.
PN-ISO/IEC 2382-34:2002
27
Załącznik krajowy NB
(informacyjny)
WYKAZ TERMINÓW FRANCUSKICH
Intelligence artificielle –
Réseaux neuronaux
34.02.26
34.02.27
34.01
Notions générales
34.01.01
34.01.02
34.01.03
34.01.04
34.01.05
34.01.06
connexionisme
modèle connexioniste
représentation sous-symbolique
hétérarchie
hiérarchie
réseau neuronal
réseau de neurones artificiels
RNA (abbréviation)
réseau de neurones formels
neurone artificiel
neurone formel
ordinateur neuronal
ordinateur neuronique
neuroordinateur
neuropuce
puce neuronale
modèle de réseau neuronal
modèle neuronal
34.02.28
34.02.29
34.02.30
34.02.31
34
34.01.07
34.01.08
34.01.09
34.01.10
34.02
Réseaux neuronaux et leurs
éléments
34.02.01
34.02.02
34.02.03
34.02.04
34.02.05
nœud source
neurone d’entrée
neurone de sortie
neurone visible
neurone caché
neurone intermédiaire
couche (dans les réseaux neuronaux)
couche d’entrée
couche de sortie
couche visible
couche caché
couche goulet
couche goulot
plaque
réseau en couches
réseau sans couches
réseau moncouche
réseau multicouche
réseau partiellement connecté
réseau entièrement connecté
réseau totalement connecté
réseau à connections aléatoires
réseau aléatoire
réseau à patrs répartis
état stable
coalition stable
réseau neuronal synchrone
réseau neuronal asynchrone
réseau acyclique
34.02.06
34.02.07
34.02.08
34.02.09
34.02.10
34.02.11
34.02.12
34.02.13
34.02.14
34.02.15
34.02.16
34.02.17
34.02.18
34.02.19
34.02.20
34.02.21
34.02.22
34.02.23
34.02.24
34.02.25
34.02.32
34.02.33
34.02.34
34.02.35
34.02.36
34.02.37
34.02.38
34.02.39
34.02.40
34.02.41
réseau récursif
perceptron monocouche
perceptron simple
perceptron
perceptron multicouche
réseau à fonctions de base radiales
réseau à rétropropagation
réseau autoorganisable
réseau à autoorganisation
carte autoorganisable
carte à autoorganisation
carte de Kohonen
mémoire asssociative
mémoire adressable par le contenu
réseau de Hopfield
macine de Boltzmann
réseau a résonance adptative
réseau tout au vainqueur
réseau plus au vainqueur
réseau neuronal adaptatif
réseau discriminant
réseau neuronal hiérarchisé
34.03
Connexions et fonctions
34.03.01
connexion synaptique
interconnexion synaptique
poids synaptique
poids de connexion
pondération (dans les réseaux neuronaux)
connexion programmable
dynamiquement
faisceau
apprentissage (dans les réseaux
neuronaux)
algorithme d’apprentissage (dans les
réseaux neuronaux)
algorithme apprenant
apprentissage connexioniste
facteur d’apprentissage
autoorganisation
apprentissage par correction d’erreur
apprentisage de Hebb
apprentissage concurrentiel
apprentissage compétitif
fonction d’activation
fonction de base radiales
connexions actualisées par seconde
CUPS (abbréviation)
propagation avant
rétropropagation
propagation arrière
entraînement (dans les réseaux neuronaux)
époque
entraînement collectif
entraînement interactif
34.03.02
34.03.03
34.03.04
34.03.05
34.03.06
34.03.07
34.03.08
34.03.09
34.03.10
34.03.11
34.03.12
34.03.13
34.03.14
34.03.15
34.03.16
34.03.17
34.03.18
34.03.19
34.03.20
34.03.21
ISBN 83-243-0170-4
Polski Komitet Normalizacyjny
ul. Świętokrzyska 14, 00-050 Warszawa
http://www.pkn.pl