Piotr Gumułka Pojęcie informacji - między nauką a metafizyką W
Transkrypt
Piotr Gumułka Pojęcie informacji - między nauką a metafizyką W
Piotr Gumułka Pojęcie informacji - między nauką a metafizyką W niniejszej pracy chciałbym przedstawić różne definicje tego czym jest informacja oraz to jakie owe definicje niosą ze sobą wnioski w dziedzinie nauki i metafizyki. Na zakończenie podejmę próbę spojrzenia na to czym jest informacja w powiązaniu z nauką, oraz z filozofią. Na przestrzeni dziejów słowo „informacja” zmieniało swój sens na coraz to szerszy i bardziej obszerny. Samo słowo „informacja” pochodzi od łacińskiego „informatio”1, które oznacza kształtować, urabiać, odciskać, oraz przedstawiać, wyobrażać i określać. W starożytności było ono powiązane z metaforą kształtu, to znaczy – formy. „Informatio” oznaczało więc pewnego rodzaju wyobrażenie oraz rezultat rozwinięcia nazwy czegoś. W czasach średniowiecza termin ten zmienił znaczenie, stając się niejako terminem technicznym oznaczającym zdeterminowaną i ukonstytuowaną przez formę materię. Parę wieków później Kartezjusz, korzystając z definicji scholastyków, zaczął rozumieć przez informację swoiste uformowanie umysłu (materii) przez struktury biologiczne mózgu (forma). Aż do XX wieku „informacja” jako pojęcie nie była podobna do intuicji, które przejawiamy dziś, gdy próbujemy zdefiniować to słowo. Okazuje się, że dopiero właśnie nadejście XX wieku, a wraz z nim powstanie i rozwój maszyn cyfrowych zmieniło diametralnie znaczenie słowa „informacja”. Termin ten zaczął oznaczać dane, które można gromadzić – są zapisywalne, przetwarzać – dokonywać na nich operacji i przekazywać – dokonywać transmisji2. Wraz z rozwojem urządzeń, które umożliwiły komunikacje na dalekie odległości zauważono, że brak jest nauki, która dostrzegłaby specyfikę zagadnienia informacji, a więc tego co informacja ze sobą niesie, jakie może mieć cechy i jak można ją opisać. Już na przełomie lat '30. i '40. C.E. Shannon podjął udaną próbę stworzenia teorii, która mówiłaby coś o istocie informacji. Jego teoria informacji to tzw. teoria ilościowa bądź teoria klasyczna informacji. 1 INFORMACJA hasło w Polskiej Encyklopedii Filozofii 2 ibidem 1/4 Teoria ilościowa Shannona oparta została o zdefiniowane pojęcie entropii probabilistycznej, która jest miarą niewiedzy odbiorcy, do którego wysłany zostaje komunikat. Shannon wyróżnia podstawowe elementy, które zawsze występują w przekazie, a są to: źródło, nadajnik sygnałów, kanał transmisji, odbiornik sygnałów, adresat. Dodatkowo, przy każdym przekazie istnieją zakłócenia, które są niezależne od któregokolwiek elementu przekazu. Sprawia to, że adresat do, którego kierowana jest informacja może tylko z pewnym prawdopodobieństwem określić czy otrzymany przekaz jest tym, który wysłał nadawca. Jak da się łatwo zauważyć – teoria ta jest prosta jeżeli chodzi o ideę, która jej przyświeca. Informacją jest każda próba wymiany między nadawcą a adresatem. Warto zauważyć, że teoria ta jest podstawową teorią w telekomunikacji i jej zastosowanie w technice telekomunikacyjnej jest powszechne. Wydawałoby się, że zaproponowany model informacji jako komunikatu z pewnego zbioru komunikatów od nadawcy jest wystarczający – i jest – jeżeli chodzi o technikę. Patrząc jednak od strony metafizyki zauważalne staje się ubóstwo tej definicji, która nie mówi nic o samej treści informacji, która jest nie mniej ważna niż jej ilość. Nie ma także w obrębie tej teorii miejsca na wartość przekazywanej informacji. Z tego faktu, że teoria ilościowa informacji nie była satysfakcjonująca ze względu na brak odpowiedzi wobec metafizycznych pytań związanych z informacją zainicjowane zostały przez R. Carnapa badania nad tak zwaną informacją semantyczną. Badania te swoje podwaliny opierały na opisanym już modelu Shannona, który jednak został wzbogacony o elementy umożliwiające wartościowanie informacji. Dzięki temu w badaniach nad informacją semantyczną rozróżnione zostały informacje prawdziwe oraz informacje fałszywe3. Z punktu widzenia nauki krok ten spowodował, że po określeniu wartości informacji możliwe stało się podstawienie informacji do formuł logicznych i wyznaczania na ich podstawie różnorakich decyzji. Jeżeli popatrzeć okiem metafizyka, to rozróżnienie na informację prawdziwą i fałszywą jest jednym z oczywistszych podziałów. W zasadzie można by się zastanawiać, czy podział ten faktycznie jest metafizyczny, czy nie wynika wyłącznie z logiki – w której zdanie może być prawdziwe lub fałszywe. Jednak stwierdzić należy, że to w metafizyce wypełnia się żądza wiedzy człowieka, a więc też żądza rozróżnienia dobra (prawdy) od fałszu, zaś logika daje jedynie narzędzia aby o tym rozstrzygać, ale nie stara się odkryć sensu czegokolwiek. 3 ibidem 2/4 Kolejnym krokiem podjętym w celu rozszerzenia pojęcia informacji była zdefiniowana przez K. Szaniawskiego pojęcia pragmatycznej wartości informacji 4. Idea tego pojęcia opiera się na założeniu, że sama prawdziwość lub fałszywość informacji nie jest wyznacznikiem tego, że jakaś informacja jest w jakikolwiek sposób użyteczna dla adresata. Użyteczność jest subiektywną wartością, która jednak jest rozpatrywana zawsze w kontekście podejmowanych decyzji – informacja nie jest dla mnie użyteczna, jeżeli nie podejmuję żadnej decyzji, na którą mogłaby ona wpłynąć. Okazuje się, że informacja prócz wartości logicznej niesie ze sobą jakąś wartość. Czynnikami wpływającymi na wartość są (prócz nadawcy i odbiorcy) także czas i miejsce nadania i odbioru. Wedle myśli M. Lubańskiego5 wartość informacji może być jednego z trzech typów: • dodatnia (pozytywna) – kiedy informacja niesie użyteczne dane, dzięki którym możliwe staje się podjęcie lepszej decyzji; • zerowa (neutralna) – informacja nie gra roli przy podejmowanej decyzji; • ujemna (negatywna) – informacja działa w sposób, że decyzja podjęta po jej przyjęciu może być gorsza niż bez jej znajomości – jest to wtedy dezinformacja. Ujęcie to jest bardzo ciekawe, gdyż stanowisko metafizyczne jest w tym przypadku zgodne z nauką pod tym względem, że w systemach podejmujących decyzje na podstawie zewnętrznych danych następuje zazwyczaj ocena pod względem użyteczności napływających nowych danych, przy czym dane, które uznawane są za szkodliwe lub niepotrzebne nie są brane pod uwagę podczas analizy uzyskanych wyników; metafizyka wartościuje sądy, które są orzekane (a więc są informacją) pod względem użyteczności. W tym wypadku te dwie dziedziny czerpią z siebie. Dokonałem rozróżnienia trzech wywodzących się po kolei od siebie teorii informacji, które uzupełniają opis tego czym jest informacja. Dodatkowo przedstawiłem zastosowanie tychże trzech teorii w praktyce wraz z krótkim komentarzem na temat konstytuującej ich metafizyki. Przejść należy do zastanowienia się, dlaczego pojęcie informacji jest takie ważne dla nauki, oraz dlaczego jest takie ciekawe dla metafizyki (a w ogólności dla filozofii). Nauka jest określana jako zbiór wszystkich tych czynności, dzięki którym dostarczane są nam informacje. To znaczy nauką jest „proces poszukiwania informacji” 6. 4 ibidem 5 ibidem 6 ibidem 3/4 Można wnioskować z tego, że bez informacji nie byłoby nauki. Do właściwego i pełnego opisu nauki potrzebna jest dobra definicja informacji. Dzięki analizie zdobytych informacji i pozyskiwaniu nowych możliwy jest rozwój nauki, a więc im lepiej określona zostanie informacja tym pełniejszy obraz świata ukaże się naszym oczom dzięki nauce. K. Szaniawski stawia tezę, że niektóre koncepcje nauki traktują zdobywanie informacji jako jeden ze swoich celów. Przy takim określeniu nauki wynika jasno, że wśród pojęć metodologii nauk pojęcie „informacji” zyskuje bardzo na znaczeniu i staje się jednym z kluczowych terminów. Co ciekawe, ludzie nauki zdają się pojmować informację intuicyjnie i nie potrzebują zastanawiać się jakie niesie ono konsekwencje, szczególnie że w większości aplikacji praktycznych odbiór informacji zatrzymuje się na poziomie teorii klasycznej, zaś wartościowanie i określanie użyteczności danej informacji – nie zawsze, ale w znacznej większości przypadków – zachodzi po poprawnym odkodowaniu przekazu, a nie w trakcie jak odbywa się to w umyśle ludzkim. Filozofia od dawna już – odkąd powstała teoria klasyczna Shannona – interesuje się informacją jako pojęcie. Według K. Poppera można oceniać wartość hipotez naukowych na podstawie zawartości informacji w obrębie danej teorii naukowej. Opiera się on bardzo silnie na teorii informacji Shannona, gdyż twierdzi [Popper], że ta teoria jest lepsza, bądź bardziej właściwa, która jest mniej prawdopodobna probabilistycznie. Wedle jego przekonania im twierdzenie jest nieprawdopodobne na gruncie zastanej wiedzy tym więcej informacji dostarcza i tym bardziej jest ono rozwijające. Wydaje mi się, że w niniejszej pracy spełniłem założone we wstępie zadanie prześledzenia trzech koncepcji informacji wraz z ich wpływem na naukę i metafizykę, jak też pokazałem, że nauka i pojęcie informacji są nierozerwalne ze sobą, zaś filozofia może wiele czerpać z tego ezoterycznego i nie do końca uchwytnego pojęcia jakim jest informacja. 4/4