Piotr Gumułka Pojęcie informacji - między nauką a metafizyką W

Transkrypt

Piotr Gumułka Pojęcie informacji - między nauką a metafizyką W
Piotr Gumułka
Pojęcie informacji - między nauką a metafizyką
W niniejszej pracy chciałbym przedstawić różne definicje tego czym jest
informacja oraz to jakie owe definicje niosą ze sobą wnioski w dziedzinie nauki i
metafizyki. Na zakończenie podejmę próbę spojrzenia na to czym jest informacja w
powiązaniu z nauką, oraz z filozofią.
Na przestrzeni dziejów słowo „informacja” zmieniało swój sens na coraz to
szerszy i bardziej obszerny. Samo słowo „informacja” pochodzi od łacińskiego
„informatio”1, które oznacza kształtować, urabiać, odciskać, oraz przedstawiać, wyobrażać
i określać. W starożytności było ono powiązane z metaforą kształtu, to znaczy – formy.
„Informatio” oznaczało więc pewnego rodzaju wyobrażenie oraz rezultat rozwinięcia
nazwy czegoś. W czasach średniowiecza termin ten zmienił znaczenie, stając się niejako
terminem technicznym oznaczającym zdeterminowaną i ukonstytuowaną przez formę
materię. Parę wieków później Kartezjusz, korzystając z definicji scholastyków, zaczął
rozumieć przez informację swoiste uformowanie umysłu (materii) przez struktury
biologiczne mózgu (forma). Aż do XX wieku „informacja” jako pojęcie nie była podobna
do intuicji, które przejawiamy dziś, gdy próbujemy zdefiniować to słowo. Okazuje się, że
dopiero właśnie nadejście XX wieku, a wraz z nim powstanie i rozwój maszyn cyfrowych
zmieniło diametralnie znaczenie słowa „informacja”. Termin ten zaczął oznaczać dane,
które można gromadzić – są zapisywalne, przetwarzać – dokonywać na nich operacji i
przekazywać – dokonywać transmisji2. Wraz z rozwojem urządzeń, które umożliwiły
komunikacje na dalekie odległości zauważono, że brak jest nauki, która dostrzegłaby
specyfikę zagadnienia informacji, a więc tego co informacja ze sobą niesie, jakie może
mieć cechy i jak można ją opisać. Już na przełomie lat '30. i '40. C.E. Shannon podjął udaną
próbę stworzenia teorii, która mówiłaby coś o istocie informacji. Jego teoria informacji to
tzw. teoria ilościowa bądź teoria klasyczna informacji.
1 INFORMACJA hasło w Polskiej Encyklopedii Filozofii
2 ibidem
1/4
Teoria ilościowa Shannona oparta została o zdefiniowane pojęcie entropii
probabilistycznej, która jest miarą niewiedzy odbiorcy, do którego wysłany zostaje
komunikat. Shannon wyróżnia podstawowe elementy, które zawsze występują w przekazie,
a są to: źródło, nadajnik sygnałów,
kanał transmisji, odbiornik sygnałów, adresat.
Dodatkowo, przy każdym przekazie istnieją zakłócenia, które są niezależne od
któregokolwiek elementu przekazu. Sprawia to, że adresat do, którego kierowana jest
informacja może tylko z pewnym prawdopodobieństwem określić czy otrzymany przekaz
jest tym, który wysłał nadawca. Jak da się łatwo zauważyć – teoria ta jest prosta jeżeli
chodzi o ideę, która jej przyświeca. Informacją jest każda próba wymiany między nadawcą
a adresatem. Warto zauważyć, że teoria ta jest podstawową teorią w telekomunikacji i jej
zastosowanie w technice telekomunikacyjnej jest powszechne. Wydawałoby się, że
zaproponowany model informacji jako komunikatu z pewnego zbioru komunikatów od
nadawcy jest wystarczający – i jest – jeżeli chodzi o technikę. Patrząc jednak od strony
metafizyki zauważalne staje się ubóstwo tej definicji, która nie mówi nic o samej treści
informacji, która jest nie mniej ważna niż jej ilość. Nie ma także w obrębie tej teorii
miejsca na wartość przekazywanej informacji.
Z tego faktu, że teoria ilościowa informacji nie była satysfakcjonująca ze
względu na brak odpowiedzi wobec metafizycznych pytań związanych z informacją
zainicjowane zostały przez R. Carnapa badania nad tak zwaną informacją semantyczną.
Badania te swoje podwaliny opierały na opisanym już modelu Shannona, który jednak
został wzbogacony o elementy umożliwiające wartościowanie informacji. Dzięki temu w
badaniach nad informacją semantyczną rozróżnione zostały informacje prawdziwe oraz
informacje fałszywe3. Z punktu widzenia nauki krok ten spowodował, że po określeniu
wartości informacji możliwe stało się podstawienie informacji do formuł logicznych i
wyznaczania na ich podstawie różnorakich decyzji. Jeżeli popatrzeć okiem metafizyka, to
rozróżnienie na informację prawdziwą i fałszywą jest jednym z oczywistszych podziałów.
W zasadzie można by się zastanawiać, czy podział ten faktycznie jest metafizyczny, czy nie
wynika wyłącznie z logiki – w której zdanie może być prawdziwe lub fałszywe. Jednak
stwierdzić należy, że to w metafizyce wypełnia się żądza wiedzy człowieka, a więc też
żądza rozróżnienia dobra (prawdy) od fałszu, zaś logika daje jedynie narzędzia aby o tym
rozstrzygać, ale nie stara się odkryć sensu czegokolwiek.
3 ibidem
2/4
Kolejnym krokiem podjętym w celu rozszerzenia pojęcia informacji była
zdefiniowana przez K. Szaniawskiego pojęcia pragmatycznej wartości informacji 4. Idea
tego pojęcia opiera się na założeniu, że sama prawdziwość lub fałszywość informacji nie
jest wyznacznikiem tego, że jakaś informacja jest w jakikolwiek sposób użyteczna dla
adresata. Użyteczność jest subiektywną wartością, która jednak jest rozpatrywana zawsze w
kontekście podejmowanych decyzji – informacja nie jest dla mnie użyteczna, jeżeli nie
podejmuję żadnej decyzji, na którą mogłaby ona wpłynąć. Okazuje się, że informacja prócz
wartości logicznej niesie ze sobą jakąś wartość. Czynnikami wpływającymi na wartość są
(prócz nadawcy i odbiorcy) także czas i miejsce nadania i odbioru. Wedle myśli M.
Lubańskiego5 wartość informacji może być jednego z trzech typów:
•
dodatnia (pozytywna) – kiedy informacja niesie użyteczne dane, dzięki którym
możliwe staje się podjęcie lepszej decyzji;
•
zerowa (neutralna) – informacja nie gra roli przy podejmowanej decyzji;
•
ujemna (negatywna) – informacja działa w sposób, że decyzja podjęta po jej
przyjęciu może być gorsza niż bez jej znajomości – jest to wtedy dezinformacja.
Ujęcie to jest bardzo ciekawe, gdyż stanowisko metafizyczne jest w tym
przypadku zgodne z nauką pod tym względem, że w systemach podejmujących decyzje na
podstawie zewnętrznych danych następuje zazwyczaj ocena pod względem użyteczności
napływających nowych danych, przy czym dane, które uznawane są za szkodliwe lub
niepotrzebne nie są brane pod uwagę podczas analizy uzyskanych wyników; metafizyka
wartościuje sądy, które są orzekane (a więc są informacją) pod względem użyteczności. W
tym wypadku te dwie dziedziny czerpią z siebie.
Dokonałem rozróżnienia trzech wywodzących się po kolei od siebie teorii
informacji, które uzupełniają opis tego czym jest informacja. Dodatkowo przedstawiłem
zastosowanie tychże trzech teorii w praktyce wraz z krótkim komentarzem na temat
konstytuującej ich metafizyki. Przejść należy do zastanowienia się, dlaczego pojęcie
informacji jest takie ważne dla nauki, oraz dlaczego jest takie ciekawe dla metafizyki (a w
ogólności dla filozofii).
Nauka jest określana jako zbiór wszystkich tych czynności, dzięki którym
dostarczane są nam informacje. To znaczy nauką jest „proces poszukiwania informacji” 6.
4 ibidem
5 ibidem
6 ibidem
3/4
Można wnioskować z tego, że bez informacji nie byłoby nauki. Do właściwego i pełnego
opisu nauki potrzebna jest dobra definicja informacji. Dzięki analizie zdobytych informacji
i pozyskiwaniu nowych możliwy jest rozwój nauki, a więc im lepiej określona zostanie
informacja tym pełniejszy obraz świata ukaże się naszym oczom dzięki nauce.
K. Szaniawski stawia tezę, że niektóre koncepcje nauki traktują zdobywanie informacji
jako jeden ze swoich celów. Przy takim określeniu nauki wynika jasno, że wśród pojęć
metodologii nauk pojęcie „informacji” zyskuje bardzo na znaczeniu i staje się jednym z
kluczowych terminów.
Co ciekawe, ludzie nauki zdają się pojmować informację intuicyjnie i nie
potrzebują zastanawiać się jakie niesie ono konsekwencje, szczególnie że w większości
aplikacji praktycznych odbiór informacji zatrzymuje się na poziomie teorii klasycznej, zaś
wartościowanie i określanie użyteczności danej informacji – nie zawsze, ale w znacznej
większości przypadków – zachodzi po poprawnym odkodowaniu przekazu, a nie w trakcie
jak odbywa się to w umyśle ludzkim.
Filozofia od dawna już – odkąd powstała teoria klasyczna Shannona –
interesuje się informacją jako pojęcie. Według K. Poppera można oceniać wartość hipotez
naukowych na podstawie zawartości informacji w obrębie danej teorii naukowej. Opiera
się on bardzo silnie na teorii informacji Shannona, gdyż twierdzi [Popper], że ta teoria jest
lepsza, bądź bardziej właściwa, która jest mniej prawdopodobna probabilistycznie. Wedle
jego przekonania im twierdzenie jest nieprawdopodobne na gruncie zastanej wiedzy tym
więcej informacji dostarcza i tym bardziej jest ono rozwijające.
Wydaje mi się, że w niniejszej pracy spełniłem założone we wstępie zadanie
prześledzenia trzech koncepcji informacji wraz z ich wpływem na naukę i metafizykę, jak
też pokazałem, że nauka i pojęcie informacji są nierozerwalne ze sobą, zaś filozofia może
wiele czerpać z tego ezoterycznego i nie do końca uchwytnego pojęcia jakim jest
informacja.
4/4