Wykład VI

Transkrypt

Wykład VI
Elementy kognitywistyki III:
Modele i architektury poznawcze
Wykład VI:
Reprezentacje koneksjonistyczne
jako modele (działania mózgu)
Sieć neuronowa: terminologia
Model sztucznego neuronu
Jednostki i aktywacje

Aktywacja sieciowa: suma wartości wejść;
Net=Sum(wejście*waga)
aktywacja neuronu: kombinacja aktywacji sieciowej i aktualnej,
przesyłana jest dalej jako aktywacja wyjściowa


programowanie sieci neuronowej:

ustalanie jej reguł aktywacji,

progu (o ile istnieje) oraz

określenie wag połączeń
każde połączenie jest ukierunkowane, przenosi pobudzenie lub
wyhamowanie (inhibicję)

każde połączenie związane jest z pewną wagą (wartość liczbowa,
dodatnia lub ujemna)

Programowanie i obliczanie
N = (0.7*0.3) + (1.0*0.5) = 0.71 (aktywacja sieciowa C)
Przykład 2: programowanie sieci:
wagi połączeń: A-C=0.1, A-D=0.3, B-C=0.2,
B-D=0.4
aktywacja: N = sumie zważonych wejść;
aktywacja sieciowa=aktywacji bieżącej
obliczanie:
wejście: A: 1, B: 1
NA=1, NB=1
NC=1*0.1 + 1* 0.2 = 0.3
Programowanie i obliczanie
Sieci kojarzące wzorce
[pattern associator], PA

struktura:

programowanie:
wyjście jednostki = aktywacji sieciowej (N)

wagi: pobudzające (+), hamujące (-)

reprezentacja matrycowa sieci:
 interpretacja:

A: kształt płatków
B: konfiguracja płatków
C: kolor płatków
D: rodzaj łodygi
Sieć „różana”
określona wartość pobudzenia danej jednostki reprezentuje określoną,
specyficzną własność
dane wejściowe: ciąg wartości dostarczanych jednostkom wejściowym:
wektor wejścia <1, -1, -1, 1>


Obliczanie: wartość wyjścia = suma zważonych wejść
A-E: 1 × -0.25 = -0.25
B-E: -1 × 0.25 = -0.25
C-E: -1 × 0.25 = -0.25
D-E: 1 × -0.25 = -0.25; suma (E): = -1
zadanie: wyliczyć wartości wyjścia dla pozostałych jednostek wyjściowych
(F-H); wektor wyjścia sieci różanej: <-1, -1, 1, 1>
Błędy wejścia
działania sieci PA nie uniemożliwia dostarczenie na wejściu błędnych
(zdegradowanych, degraded) danych
dane wejściowe: jednostka wejściowa C nie jest pobudzana: wektor
wejścia <1, -1, 0, 1>


obliczanie:
A-E: 1 × -0.25 = -0.25
B-E: -1 × 0.25 = -0.25
C-E: 0 × 0.25 = 0
D-E: 1 × -0.25 = -0.25; suma (E): = -0.75
zadanie: wyliczyć wartości wyjścia dla pozostałych jednostek wyjściowych
(F-H)
wektor wyjścia sieci różanej: <-0.75, -0.75, 0.75, 0.75>
Sieci nałożone
[superimposed networks]: sieci PA mogą przechowywać skojarzenia między
więcej, niż jedną parą wektorów wejścia-wyjścia
sieć „kozia”:
dane we/wy: wektor wejścia reprez. wygląd kozy <-1, 1, -1, 1>; wektor
wyjścia (reprez. zapach kozy): <-1,1,1,-1>


nałożenie sieci:
[ ][ ][
a b
w

c d
y
x
aw bx
=
z
c y dz
]
Sieci nałożone
Czy w takiej sieci koza nie będzie pachniała różą ? (i vice versa)

obliczanie:
A-E: -1 × 0
=0
B-E: 1 × 0 = 0
C-E: -1 × 0.5 = 0.5
D-E: 1 × -0.5 = -0.5; suma (E):= -1
A-F: -1 × -0.5 = 0.5
B-F: 1 × 0.5 = 0.5
C-F: -1 × 0
=0
D-F: 1 × 0
= 0; suma (F):
=1
zadanie: wyliczyć wartości wyjścia dla pozostałych jednostek wyjściowych
(G-H) oraz dla wektora róży
Sieci rekurencyjne

sieci z jednokierunkowymi połączeniami [feedforward networks]
+ sprzężenia zwrotne (pętle) – modelowanie zjawisk ewoluujących wraz
z upływem czasu:

Rodzaje sieci rekurencyjnych:

nierozszerzona (trójwarstwowa) sieć rekurencyjna:


poziom wyższy przekazuje aktywację wstecznie do poziomu
niższego
dany poziom przekazuje aktywację samemu sobie
rozszerzona (trójwarstwowa) sieć rekurencyjna – zawiera dodatkowy,
rozszerzający poziom jednostek przekazujący aktywację do:


ukrytego poziomu

poziomu wejściowego (sieć Elmana, 1990, 1992)
Sieci rekurencyjne