Semantyczna teoria informacji (cz. 2).

Transkrypt

Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
Filozofia Informacji, Wykład IV - Semantyczna
teoria informacji (cz. 2).
Artur Machlarz
17 marca 2012
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
Plan wykładu
1
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC
2
Krytyka teorii BHC w pracach L. Floridiego
Tzw. paradoks teorii BHC
Informatywność praw logicznych
3
Krytyka teorii BHC w pracy Hintikki
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC
Logiczna funkcja m
Właściwa teoria informacji semantycznej i określenie miary
informatywności w teorii BHC zaczyna się wraz z wyborem funkcji
określającej interpretację prawdopodobieństwa, które pojawia się w
definicji miary informatywności. W teorii BHC funkcja ta musi określać a
priori tę wartość dla wszystkich elementów L. Do tego celu służy w teorii
BHC pojęcie m-funkcji właściwej.
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC
Logiczna funkcja m
Pojęcie m-funkcji pochodzi z Carnapa Logical Foundations of Probability
(Chicago 1950). Funkcja ta określa wartość aprioryczną
prawdopodobieństwa statycznego alternatywnych stanów rzeczy w danej
dziedzinie. Prawdopodobieństwo w przypadku m-funkcji w teorii
informacji jest rozłożone symetrycznie na wszystkie logicznie możliwe
stany rzeczy tak, że suma wartości m-funkcji dla całego zbioru jest równa
1.
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC
Logiczna funkcja m - definicja
Ta funkcja jest zdefiniowana logicznie, jako spełniająca szereg warunków:
Musi być większa niż 0 dla dowolnej klasy opisów stanów.
Suma wszystkich m-wartości = 1.
Dla dowolnego L-fałszywego zdania j, m(j) = 0.
Dla dowolnego nie-L-fałszywego zdania j, m(j) = sumie m-wartości
dla klasy opisów stanów w R(j).
Pozostałe własności - na wykładzie.
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC
Logiczna funkcja m - uwagi
M-funkcja właściwa jest logiczną funkcją rozkładającą po równo
prawdopodobieństwo na wszystkie elementy zbioru. Nie uwzględnia się
przy tym żadnego rodzaju realnych warunków typu:
stopień potwierdzenia,
częstotliwość występowania,
inne dowody wspierające poszczególne elementy zbioru,
a tym bardziej wiarygodność źródła...
Interesują nas wyłącznie syntaktyczne możliwości naszego języka. To one
wyznaczają ilość możliwych stanów rzeczy - jednoznacznie określają całą
semantykę.
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC
cont - definicja
Przy użyciu m-funkcji defniuje się nastęnie miarę treści (cont):
cont(i) = mp (∼ i)
Innymi słowy: treści jest tyle, ile wynosi prawdopodobieństwo zdań
będących dopełnieniem zakresu zdania i.
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC
cont - własności
Najważniejsze własności cont:
1 > cont(i) > 0
cont(i) = 0 wtw i jest L-prawdziwe,
cont(i) = 1 wtw i jest L-fałszywe,
1 > cont(i) > 0 wtw i jest faktualne.
cont(i.j) = cont(i) + cont (j) wtw i oraz j są L-rozłączne, czyli
dedukcyjnie niezależne.
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC
cont - jeszcze jedna ciekawa własność
Kolejna własność cont:
Dla dowolnych dwóch zdań bazowych Bi oraz Bj z różnymi prostymi
predykatami, cont(Bj /Bi ) = 1/2cont(Bi ). Np. cont(Da/Za) = 1/4.
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC
cont - jeszcze jedna ciekawa własność
Kolejna własność cont:
Dla dowolnych dwóch zdań bazowych Bi oraz Bj z różnymi prostymi
predykatami, cont(Bj /Bi ) = 1/2cont(Bi ). Np. cont(Da/Za) = 1/4.
Ćwiczenie: jaki sens ma ta własność?
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC
cont - jeszcze jedna ciekawa własność
Kolejna własność cont:
Dla dowolnych dwóch zdań bazowych Bi oraz Bj z różnymi prostymi
predykatami, cont(Bj /Bi ) = 1/2cont(Bi ). Np. cont(Da/Za) = 1/4.
Ćwiczenie: jaki sens ma ta własność? Jeśli odbiorca otrzymuje n-ilość
kolejno następujących po sobie zdań bazowych, z n-ilością odmiennych
predykatów, to wartość cont pierwszego wyniesie 1/2, drugiego: 1/4,
trzeciego: 1/8 itd.
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC
cont - czego brakuje?
Czy potrzebujemy czegoś jeszcze?
1
Zgodnie z przedostatnią z wymienionych własności, wartości treści i
oraz j są dodawalne o ile i oraz j są rozłączne: nie implikują tych
samych zdań. Ten warunek jest jednak dla BHC niewystarczający.
Wg BHC należy uwzględnić ich indukcyjną a nie dedukcyjną
niezależność.
2
Jeśli weźmiemy zdania bazowe traktowane jako niezależne
dedukcyjnie i indukcyjnie, to własność wymieniona jako ostatnia,
wydaje się nieadekwatna, bo nie powinna zależeń od idealnego
odbiorcy.
Wyjaśnienie: niezależność indukcyjna polega tutaj na tym, że
prawdopodobieństwo warunkowe zdań bazowych i/j będzie równe
bezwzględnemu prawdopodobieństwu i.
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC
inf - definicja
inf (funkcja pomiaru ilości informacji przypadającej na zdanie):
1
inf (i) = log 1−cont(i)
ewentualnie:
1
inf (i) = log cont(−i)
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC
inf - warunek dodawalnośi
Funkcja cont nie spełnia warunku dodawalności, który to warunek jest
spełniony przez inf:
inf (i.j) = inf (i) + inf (j) wtw i oraz j są indukcyjnie niezależne.
Dowolne dwa zdania bazowe, mają wspólny zakres: np. alternatywę tych
zdań, która logicznie wynika tak z jednego jak i z drugiego. Nie są zatem
rozłączne logicznie, są zaś niezależne indukcyjnie.
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC
Funkcja inf - własności
Najważniejsze pozostałe własności inf:
0 ≤ inf (i) ≤ ∞
inf(i) = 0 wtw i jest L-prawdziwe
inf(i) = ∞ wtw i jest L-fałszywe
inf(i) ma dodatnią skończoną wartość wtw i jest faktualne.
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC
Czym różnią się cont i inf?
inf spełnia warunek dodawalności.
inf dla kontrtautologii uzyskuje wartość maksymalną - tzn.
nieskończoną (dla cont maximum jest 1).
L-rozłączność (czyli dedukcyjną niezależność) w cont zastępuje
indukcyjna niezależność w inf.
dla dowolnego zdania atomowego cont=1/2, inf=1.
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC
Zastosowanie teorii BHC
Według Bar Hillela:
teoria informacji semantycznej w zarysowanym kształcie może być
rozszerzona w kierunku teorii pragmatycznej a ograniczenie do
zamkniętego systemu językowego da się “z łatwością” pokonać.
zarysowana teoria może być wartościowa dla teorii projektowania
eksperymentów (DOE) oraz
teorii testów.
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC
Przykład teoretycznego zastosowania BHC
Według Bar Hillela inf może służyć jako definicja informatywności
hipotezy w świetle określonego stopnia potwierdzenia:
1
inf (h, e) = log cp (h,e)
,
gdzie nowa funkcja konfirmacji c mająca postać prawdopodobieństwa
warunkowego cp (h, e) określająca stopień potwierdzenia hipotezy h w
świetle potwierdzenia e może być zdefiniowana przez m-funkcję właściwą
przy pomocy prawdopodobieństwa warunkowego:
cp (h, e) =
Artur Machlarz
mp (e.h)
mp (e)
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC
Przykład teoretycznego zastosowania BHC
To twierdzenie pokazuje silną zależność między relatywną miarą
informacji nowej wiadomości h ze względu na dowód e - tzn. względne
prawdopodobieństwo indukcyjne hipotezy h w kontekście dowodu e. h i e
mogą być ewentualnie interpretowane jako (nowa) wiadomość i wiedza.
Widać wyraźnie, że wartość informacyjna inf(h/e) jest tym większa, im
mniej prawdopodobne jest h ze względu na dowód e.
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC
Przykład teoretycznego zastosowania BHC
Funkcja konfirmacji wyraża stopień potwierdzenia jakiegoś zdania przez
inne zdania. Przykład dla języka L22 :
załóżmy, że p(e) = 1/2 a p(h) = 1/8 ;
wtedy: cp (h, e) =
3
4
- załóżmy, że h oraz e nie są L-rozłączne;
a zatem inf (h, e) = log 13 = 0, 422
4
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC
Przykład teoretycznego zastosowania BHC
Funkcja konfirmacji wyraża stopień potwierdzenia jakiegoś zdania przez
inne zdania. Przykład dla języka L22 :
załóżmy, że p(e) = 1/2 a p(h) = 1/8 ;
wtedy: cp (h, e) =
3
4
- załóżmy, że h oraz e nie są L-rozłączne;
a zatem inf (h, e) = log 13 = 0, 422
4
Stopień potwierdzenia c jest zatem wyznaczony przez związek logiczny
między e oraz h.
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC
Oczekiwana wartość informacyjna wyniku eksperymentu
Wg BHC możemy na podstawie teorii informacji semantycznej a priori
np. określić wartość informacyjną oczekiwanych danych wyjściowych
przeprowadzanego eksperymentu. Załóżmy, że:
możliwe dane wyjściowe projektowanego eksperymentu to zdania:
h1 , h2 , ..., hn - są one rozłączne a ich alternatywa jest L-prawdziwa.
Zbiór tych zdań oznaczmy jako H.
m-funkcja jest zdefiniowana dla wszystkich zdań hi ∈ H - mamy
ustalony rozkład prawdopodobieństwa.
w ramach BHC możemy podać uogólnioną wartość informatywności
zbioru możliwych wyjściowych danych eksperymentu, których
wartość nie będzie oparta na rozkładzie prawdopodobieństwa
wyznaczonym wyłącznie przez m-funkcję właściwą, ale na
prawdopodobieństwie warunkowym względem stopnia potwierdzenia
n
P
przez e: est(in, H, e) =
c(hp , e) ∗ inf (hp /e)
p=1
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC
Oczekiwana wartość informacyjna wyniku eksperymentu przykład
Wartość informacyjna wyniku eksperymentu - przykład:
przyjmijmy, że: L23 , h1 = Dc, h2 = Zc, H = {h1 , h2 }, e = Da.Db.
Zatem:
cont ∗ (h1 /e) = 0, 1
cont ∗ (h2 /e) = 0, 2. Zatem:
est(cont ∗ , H, e) =
∗
est(inf , H, e) =
2
3
2
3
1
3 ∗ 0, 2 = 0, 133
2
1
1
3 + 3 ∗ 3 = 0, 918
∗ 0, 1 +
∗ Log
Artur Machlarz
oraz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
cont i inf jako miara informatywności
Własności cont i inf - porównanie
Zastosowanie teorii BHC
Podsumowanie teorii BHC
Podsumowanie teorii BHC
Pytania kontrolne:
Jaki jest przedmiot tej teorii?
Jaki jest cel Bar-Hillela i Carnapa?
Jak określona jest miara informatywności i jaki jest jej sens?
Do czego może mieć zastosowanie teoria BHC?
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
Tzw. paradoks teorii BHC
Informatywność praw logicznych
Problem informatywności praw logicznych - Carnap i
Bar-Hillel
W ramach teorii BHC tautologie i kontrtautologie również posiadają
wartość informacyjną:
wartość informacyjna tautologii = 0
wartość informacyjna kontrtautologii = ∞
Maksymalna wartość informacyjna kontrtautologii może być uznana za
wysoce nieintuicyjną.
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
Tzw. paradoks teorii BHC
Informatywność praw logicznych
Paradoks teorii BHC w ujęciu BHC
Wyjaśnienie Bar Hillela i Carnapa:
Może się to wydawać dziwne, że zdania sprzeczne (czyli takie,
których żaden idealny odbiorca nie mógłby zaakceptować)
okazują się zdaniami zawierającymi najwięcej informacji. Należy
jednak podkreślić, że informacja semantyczna nie implikuje
prawdziwości zdania. Zdania fałszywe mogą być w wysokim
stopniu informatywne. Zdania sprzeczne (kontrtautologie)
są zbyt informatywne, żeby mogły być prawdziwe.
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
Tzw. paradoks teorii BHC
Informatywność praw logicznych
Paradoks teorii BHC w ujęciu Floridiego
Wysoka wartość informacyjna zdań, które nie mówią kompletnie nic o
rzeczywistości jest konsekwencją, której na gruncie definicji przyjętych w
BHC nie da się ominąć. Dla Floridiego jest to konsekwencja, której
wartość urasta w filozofii informacji do rangi paradoksu Gettiera w teorii
wiedzy. Staje się ona dla Floridiego jednym z istotnych argumentów za
przyjęciem prawdziwościowo określonej definicji informacji.
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
Tzw. paradoks teorii BHC
Informatywność praw logicznych
O czym mówimy na zajęciach z logiki?
Problem informatywności praw logicznych pojawiał się także w innych
kontekstach, np.:
Wittgenstein: “Zdania pokazują, co mówią: tautologia i sprzeczność
pokazują, że nie mówią nic. (...) Tautologia i sprzeczność są
bezsensowne (...) (Nie wiem np. nic o pogodzie, gdy wiem tylko, że
pada lub nie pada.) (...) Tautologia i sprzeczność nie są obrazami
rzeczywistości. Nie przedstawiają one żadnej możliwej sytuacji.
Pierwsza dopuszcza bowiem każdą możliwą sytuację a druga nie
dopuszcza żadnej.” (Tractatus logico-philosophicus, 4.461, 4.462)
Tautologie i kontrtautologie nie są informatywne: nie obrazują bowiem
rzeczywistości.
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
Tzw. paradoks teorii BHC
Informatywność praw logicznych
O czym mówimy na zajęciach z logiki?
Problem informatywności praw logicznych w teorii Dretskego i Floridiego:
Dretske: sygnał jest informatywny a informacja pełni funkcję
wiedzotwórczą dzięki “prawom naturalnym” i “prawom logiki”.
Zarówno prawa logiki jak i prawa naturalne, jako odnoszące się do
pewnego typu zdarzeń we wszelkich kontekstach, mają zerową
wartość informacyjną.
Floridi: tautologie i kontrtautologie stanowią graniczne przykłady
relacji infonu do określonej sytuacji. Niezależnie od tego, czy infon
jest potwierdzany przez dowolną czy żadną sytuację, wartość
informacyjna takiego infonu wynosi 0.
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
Tzw. paradoks teorii BHC
Informatywność praw logicznych
O czym mówimy na zajęciach z logiki?
Naturalnie nie wszyscy uznają prawa logiczne za pozbawione znaczenia:
w szczególności należy zwrócić uwagę na rozwiązanie
zaproponowane przez Jaakko Hintikkę w kategoriach logiki
epistemicznej będącej prostym przekształceniem logiki modalnej K.
oraz tzw. algorytmiczną teorię informacji.
Więcej na ten temat w: Manuel E. Bremer Do Logical Truths Carry
Information?, w: “Minds and Machines” Volume 13 Issue 4, November
2003 oraz na następnym wykładzie.
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
Przedmiot krytyki Jaakko Hintikki
Hintikka poddaje krytyce interpretację pojęcia prawdopodobieństwa w
teorii BHC. Wg Hintikki w teorii BHC znaleźć można przynajmniej dwie
trudności związane z interpretacją pojęcia prawdopodobieństwa:
1
w teorii BHC jesteśmy zainteresowani jedynie różnymi alternatywami
i czysto logicznym prawdopodobieństwem; informacja nie ma nic
wspólnego ze stanem wiedzy lub przekonaniami. Tymczasem
informacja niesiona przez hipotezę jest prawdopodobieństwem a
posteriori - czymś, co może być wzmocnione przez np. już
przeprowadzone obserwacje w stopniu zależnym od ich ilości.
2
funkcja m dopuszcza trudną do utrzymania konsekwencję: przy
rozszerzeniu teorii BHC, przy nieskończonym uniwersum, zdania
ogólne mają prawdopodobieństwo zerowe.
3
ponadto przyjęty w BHC język jest zbyt ubogi nawet dla języków
naukowych, w których pojawia się więcej niż tylko predykaty
jednoargumentowe i stałe indywiduowe.
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
Przedmiot krytyki Jaakko Hintikki
Szczegółowa analiza Hintikki propozycji rozwiązania problemu oraz
kategorie informacji głębokiej i powierzchniowej zostaną przedstawione na
kolejnym wykładzie.
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
Literatura
Duża część tego wykładu oparta jest na tekstach Bar-Hillela
zamieszczonych w wyborze:
Language and Information. Selected Essays in their Theory and
Application. Massachusetts 1964.
Polecam także:
Halina Mortimer Logika indukcji, Warszawa 1982.
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).
Teoria informacji semantycznej Bar-Hillela i Carnapa (BHC) - cd.
Krytyka teorii BHC w pracach L. Floridiego
Krytyka teorii BHC w pracy Hintikki
Dziękuję za uwagę i zapraszam do stawiania pytań!
Artur Machlarz
e-mail: [email protected]
www: http://www.uni.opole.pl/∼machlarz
Artur Machlarz
Filozofia Informacji, Wykład IV - Semantyczna teoria informacji (cz. 2).

Podobne dokumenty