teorii informacji
Transkrypt
teorii informacji
Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Artur Machlarz 13 marca 2012 Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Plan wykładu 1 Uwagi historyczne o teorii informacji Shannona Ogólna charakterystyka problemu Harry Nyquist Ralph Hartley 2 Matematyczna Teoria Informacji Claude’a E. Shannona Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia 3 Pojęcie entropii w fizyce Drugie prawo termodynamiki i demon Maxwella Entropia w fizyce a entropia Shannona 4 Podsumowanie Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka problemu Harry Nyquist Ralph Hartley Najogólniejsza charakterystyka interesującego nas problemu: podać kryterium oceny różnych systemów komunikacyjnych pod względem ich zdolności do przesyłania informacji. Uwaga: nie będzie nas dziś interesowała treść komunikatu. Informacja będzie traktowana jak własność fizyczna. Claude E. Shannon - którego teorią zajmować się będziemy na wykładzie - w pracy A Mathematical Theory of Communication (w: “The Bell System Technical Journal”, Vol. 27, pp. 379–423, 623–656, July, October, 1948.) powołuje się na dokonania Nyquista i Hartleya, jako podstawowe dla jego teorii. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka problemu Harry Nyquist Ralph Hartley Harry Nyquist - Idealny przekaźnik Nyquist uważa, że dwa czynniki mają podstawowe znaczenie dla efektywnej transmisji sygnału w fizycznie idealnym przekaźniku (tzn. takim, który nie zawiera żadnych fizycznych ograniczeń prędkości): kształt sygnału oraz reprezentujący przekazywaną wiadomość kod (kod idealny to będzie taki, który przy optymalnym kształcie sygnału i braku fizycznych ograniczeń przekaźnika określa prędkość transmisji). Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka problemu Harry Nyquist Ralph Hartley Prędkość transmisji Według Nyquista prędkość transmisji przy idealnym kodzie i optymalnym kształcie sygnału jest proporcjonalna do logarytmu ilości znaków, które mogą być użyte do zakodowania wiadomości. Nyquist wprowadza do teorii informacji funkcję logarytmiczną. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka problemu Harry Nyquist Ralph Hartley Ralph Hartley - Model przekazu informacji System komunikacyjny składa się z trzech elementów: Zbioru fizycznych symboli, Nadawcy wybierającego jeden z elementów tego zbioru, Odbiorcy, który identyfikuje symbol i kieruje swoją uwagę na intencję nadawcy. Efektywność systemu polega na tym, że odbiorca ma szansę na odkrycie, jakiego wyboru dokonał nadawca (a jednocześnie, jakie elementy wyeliminował). Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka problemu Harry Nyquist Ralph Hartley Informacja a różnica I zasada: dwa identyczne fizyczne ciągi symboli nie dają żadnych podstaw do zróżnicowania znaczenia. Ciąg symboli A jest identyczny z ciągiem symboli B: a zatem A i B pełniące tą samą funkcję nie mogą efektywnie służyć wskazaniu dwóch różnych rzeczy (nie mogą być nośnikami informacji o dwóch różnych rzeczach). Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka problemu Harry Nyquist Ralph Hartley Informacja a różnica - przykład Jeśli w katalogu bibliotecznym mielibyśmy do czynienia z kilkoma pozycjami książkowymi oznaczonymi tą samą sygnaturą, to wskazanie wyłacznie sygnatury nie wskazywałoby jednoznacznie pozycji książki. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka problemu Harry Nyquist Ralph Hartley Informacja a różnica - kolejny przykład Osoba A w odpowiedzi na pytanie Q odpowiada zawsze: już niedługo. Pewnego dnia odpowiada: jutro. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka problemu Harry Nyquist Ralph Hartley Informacja a różnica - kolejny przykład Osoba A w odpowiedzi na pytanie Q odpowiada zawsze: już niedługo. Pewnego dnia odpowiada: jutro. W obu przypadkach mamy naturalnie do czynienia z zamkniętą ilością możliwych ciągów symboli do wyboru. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka problemu Harry Nyquist Ralph Hartley Informacja a różnica - wnioski Wnioski Ralpha Hartleya (1928): różnice między fizycznymi ciągami symboli są podstawowym czynnikiem wpływającym na wartość informacyjną ciągu, bierzemy zatem zbiór ciągów symboli a nie pojedyncze symbole, żeby ustalić wartość informacyjną symbolu oraz traktujemy informację jako wskazanie przez fizyczny ciąg symboli na coś innego niż on sam. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka problemu Harry Nyquist Ralph Hartley Informacja a różnica - wnioski Wnioski Ralpha Hartleya (1928): w pracach Hartleya pojawia się zatem idea powiązania wartości informacyjnej ze stopniem prawdopodobieństwa wystąpienia jakiegoś stanu rzeczy (fizycznego ciągu symboli) Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka problemu Harry Nyquist Ralph Hartley Informacja a różnica - wnioski Wnioski Ralpha Hartleya (1928): w pracach Hartleya pojawia się zatem idea powiązania wartości informacyjnej ze stopniem prawdopodobieństwa wystąpienia jakiegoś stanu rzeczy (fizycznego ciągu symboli) oraz - co równie ważne - wartość informacyjna jest w jego teorii odwrotnie proporcjonalna do stopnia prawdopodobieństwa. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Charakterystyka teorii Shannona Rysunek: Claude E. Shannon - twórca podstaw współczesnej teorii komunikacji i informacji; wprowadził do nauki pojęcie informacji; jego najważniejsza praca (“A Mathematical Theory of Communication.“) powstała w czasie pracy w Bell Laboratories, gdzie zapoznał się z pracami Nyquista i Hartleya. Artykuł ten został wydany w 1948 roku. Shannon jest również znany jako wynalazca, jest m.in. twórcą ”The Ultimate Machine“: http://youtu.be/cZ34RDn34Ws Filmowy krótki przegląd innych dokonań Shannona: http://youtu.be/Tr1sDgIFE40 . Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Charakterystyka teorii Shannona Deklarowanym celem Shannona było: (...) rozważyć pewne ogólne problemy związane z systemami komunikacyjnymi. Fundamentalnym problemem komunikacji jest problem reprodukcji w jednym miejscu albo dokładnie albo przynajmniej w zbliżony sposób wiadomości wybranej w innym miejscu. (...) Istotnym aspektem jest to, że pewna wiadomość jest jedną wybraną ze zbioru możliwych wiadomości. System musi być zaprojektowany tak, żeby działać dla każdego możliwego wyboru, nie tylko dla tego, który faktycznie został dokonany, choćby dlatego, że ten wybór nie jest znany w momencie projektowania systemu. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Semantyka? Komunikat ma zawsze pewną treść - dla Shannona problem treści znaczenia komunikatu - jest jednak irrelewantny. Dlaczego? Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Semantyka? Komunikat ma zawsze pewną treść - dla Shannona problem treści znaczenia komunikatu - jest jednak irrelewantny. Dlaczego? wg Shannona dla inżynieryjnych problemów związanych z projektowaniem efektywnych systemów transmisji informacji ten problem wydaje się nieistotny; Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Semantyka? Komunikat ma zawsze pewną treść - dla Shannona problem treści znaczenia komunikatu - jest jednak irrelewantny. Dlaczego? wg Shannona dla inżynieryjnych problemów związanych z projektowaniem efektywnych systemów transmisji informacji ten problem wydaje się nieistotny; w czasach Shannona badania semantyczne uznawane były za nienaukowe również przez całą rzeszę amerykańskich lingwistów (np. Bloomfelda i dystrybucjonistów amerykańskich). Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Model Shannona Rysunek: Model Shannona Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Model Shannona W Modelu Shannona mamy następujące elementy: nadawca/źródło informacji, przekaźnik, sygnał nadany, kanał transmisji (tutaj może wystąpić szum), sygnał odebrany, odbiornik, odbiorca. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Model Shannona W modelu Shannona przyjmujemy następujące założenia: w źródle informacji i u odbiorcy przyjmujemy ”wiedzę aprioryczną“ znajomość zbioru zdarzeń, z których mogą być wybrane konkretne wydarzenia (np. ciągi symboli); Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Model Shannona W modelu Shannona przyjmujemy następujące założenia: w źródle informacji i u odbiorcy przyjmujemy ”wiedzę aprioryczną“ znajomość zbioru zdarzeń, z których mogą być wybrane konkretne wydarzenia (np. ciągi symboli); informowany i informujący znają rozkład prawdopodobieństwa w tym zbiorze; Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Model Shannona W modelu Shannona przyjmujemy następujące założenia: w źródle informacji i u odbiorcy przyjmujemy ”wiedzę aprioryczną“ znajomość zbioru zdarzeń, z których mogą być wybrane konkretne wydarzenia (np. ciągi symboli); informowany i informujący znają rozkład prawdopodobieństwa w tym zbiorze; informowany nie wie przed otrzymaniem sygnału, jaki element zbiory został/zostanie wybrany przez źródło informacji. Otrzymany sygnał redukuje zatem jego niepewność odnośnie tego, jaki element zbioru będzie wybrany. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Realizacja modelu - przykład 1 Osoba A mówi do osoby B: ”zrób coś z tym koszmarnym hałasem¡‘. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Realizacja modelu - przykład 1 Osoba A mówi do osoby B: ”zrób coś z tym koszmarnym hałasem¡‘. Interpretacja w modelu: osoba A (a raczej jej umysł, kora mózgowa itp.) - źródło informacji organy mowy A wytwarzają falę dźwiękową - przekaźnik fala dźwiękowa - sygnał powietrze - kanał transmisji (niestety hałas, o którego likwidację prosi A, zniekształca w tym miejscu sygnał - pojawia się szum) organy słuchu B - odbiornik osoba B (umysł, kora mózgowa itp.) - odbiorca informacji. Dokładna treść informacji w tym modelu jest nieistotna. Treść komunikatu i reakcja B nie ma znaczenia. Znaczenie ma to, czy szumy zniekształciły sygnał w sposób uniemożliwiający poprawnie zdekodowanie wiadomości, czy też nie. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Realizacja modelu - przykład 2 Lampka nad wejściem do gabinetu jest włączona: Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Realizacja modelu - przykład 2 Lampka nad wejściem do gabinetu jest włączona: Proszę podać interpretację w modelu Shannona; proszę znaleźć inny przykład, który da się zinterpretować w tym modelu. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Realizacja modelu - przykład 2 Lampka nad wejściem do gabinetu jest włączona: Proszę podać interpretację w modelu Shannona; proszę znaleźć inny przykład, który da się zinterpretować w tym modelu. Teoria Shannona jest b. abstrakcyjna i ogólna. Obejmuje zarówno alfabet, zbiory biblioteczne, kule w jakiejś puli itp. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Szum Uwaga: proszę nie mylić szumu w teorii Shannona z niejasnym pojęciem szumu informacyjnego. Szum jest zawsze zjawiskiem niepożądanym. Oznacza zakłócenia w transmisji sygnału pochodzące ze źródeł zewnętrznych. Szum powoduje np. zakłócenia polegające na zagłuszeniu części sygnału. 1 Przykład szumu: muzyka zakłócająca komunikat ustny. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Redundancja (Ekwiwokacja) Redundancja jest nadmiarem informacji względem pożądanej ilości (np. do przesłania komunikatu potrzebnych jest n-ilość bitów, natomiast wysyłany sygnał zawiera n+5-ilość). Ten nadmiar może być zarówno pożądany jak i niepożądany. Przykłady: 1 Redundancja pożądana: suma kontrolna md5sum w plikach (pozwala skontrolować poprawność np. pobranego obrazu .iso w dużym rozmiarze); metainformacje w dokumentach elektronicznych itp. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Redundancja (Ekwiwokacja) Redundancja jest nadmiarem informacji względem pożądanej ilości (np. do przesłania komunikatu potrzebnych jest n-ilość bitów, natomiast wysyłany sygnał zawiera n+5-ilość). Ten nadmiar może być zarówno pożądany jak i niepożądany. Przykłady: 1 Redundancja pożądana: suma kontrolna md5sum w plikach (pozwala skontrolować poprawność np. pobranego obrazu .iso w dużym rozmiarze); metainformacje w dokumentach elektronicznych itp. 2 Redundancja niepożądana: zbędne elementy w kodzie strony internetowej wynikające np. z użycia aplikacji typu WYSIWYG (brak widocznego efektu, poza spowolnieniem działania przeglądarki) itp. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Przydatne pojęcia matematyczne Jakie pojęcia matematyczne będą nam potrzebne? prawdopodobieństwo: P (X) - prawdopodobieństwo zdarzenia X. Jest określone w stosunku do całego zbioru możliwości. Jeśli zbiór A jest 2-elementowy, to przy równym rozkładzie prawdopodobieństwa - x, y, należące do A, mają prawdopodobieństwo równe 12 . P(X |Y ) - prawdopodobieństwo warunkowe zdarzenia X ze względu na Y (prawdopodobieństwo, że wystąpi zjawisko X pod warunkiem ∩Y ) wystąpienia Y). Y ogranicza zbiór możliwości: P(X |Y ) = P(X P(Y ) Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Przydatne pojęcia matematyczne Jakie pojęcia matematyczne będą nam potrzebne? logarytm: logn - funkcja oznaczająca potęgę, do której trzeba podnieść liczbę n, żeby otrzymać określony wynik (np. logn 8 = 3, ponieważ 2 podniesione do trzeciej potęgi daje 8.) Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Przydatne pojęcia matematyczne Jakie pojęcia matematyczne będą nam potrzebne? P sumowanie: - operacja uogólnionego dodawania składników pewnego szeregu. Jeśli nad tym symbolem pojawia się określona wartość n, oznacza ona, że sumujemy elementy skończonego n P szeregu. Indeks dolny, oznacza pierwszy element szeregu ( ). i=1 Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Ogólne wyrażenie entropii - miara informacji Entropia: H= n P pi log2 i=1 1 pi Objaśnienie symboli: H - ilość informacji mierzona w bitach, n P - operacja sumowania n-elementów skończonego zbioru i=1 n-elementowego. pi - prawdopodobieństwo i-elementu. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Ogólne wyrażenie entropii - przykład Weźmy zbiór 4-elementowy. Rozkład prawdopodobieństw wygląda tak: A = (A1 = 21 , A2 = 14 , A3 = 18 , A4 = 18 ) Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Ogólne wyrażenie entropii - przykład Weźmy zbiór 4-elementowy. Rozkład prawdopodobieństw wygląda tak: A = (A1 = 21 , A2 = 14 , A3 = 18 , A4 = 18 ) Wartość entropii: 4 P H= pi log2 p1i = pA 1log2 pA11 + ... = 21 log2 11 + 41 log2 11 + 2 4 i=1 1 1 1 1 1 1 1 1 + 8 log2 1 = 2 log2 2 + 4 log2 4 + 8 log2 8 + 8 log2 8 = 1 8 log2 1 2 8 ∗1+ 1 4 ∗2+ 1 8 8 ∗3+ 1 8 ∗3= 1 2 + Artur Machlarz 1 2 + 3 8 + 3 8 = 1, 75 Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Ogólne wyrażenie entropii - komentarz Komentarz: Entropia nie jest wyrazem zawartości informacyjnej pojedynczego elementu zbioru ani całości zbioru. Entropia wyraża przeciętną informatywność elementów zbioru określoną a priori przez rozkład prawdopodobieństwa w zbiorze możliwości. Entropia może być zinterpretowana jako wartość określająca przeciętną niepewność w danym zbiorze możliwych sygnałów (aczkolwiek bez skojarzeń psychologicznych). W definicji entropii pojawia się funkcja logarytmiczna o podstawie 2, ze względu na warunki techniczne: interesuje nas kod binarny. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Entropia dla zbioru zdarzeń odmiennie prawdopodobnych Pytanie kontrolne - oblicz wartość entropii dla: A = (A1 = 1 16 , A2 = 34 , A3 = 18 , A4 = Artur Machlarz 3 16 ) Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Entropia dla zbioru zdarzeń odmiennie prawdopodobnych Pytanie kontrolne - oblicz wartość entropii dla: A = (A1 = 1 16 , A2 = 34 , A3 = 18 , A4 = 3 16 ) Dla osób, które nie zapamiętały wzoru: H= n P i=1 Artur Machlarz pi log2 1 pi Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Entropia dla zbioru zdarzeń równoprawdopodobnych Pytanie kontrolne: oblicz wartość entropii dla: Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Entropia dla zbioru zdarzeń równoprawdopodobnych Pytanie kontrolne: oblicz wartość entropii dla: A = (A1 = 41 , A2 = 14 , A3 = 14 , A4 = 14 ) Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Entropia dla zbioru zdarzeń równoprawdopodobnych Pytanie kontrolne: oblicz wartość entropii dla: A = (A1 = 41 , A2 = 14 , A3 = 14 , A4 = 14 ) Dla osób, które nie zapamiętały wzoru: H= n P i=1 Artur Machlarz pi log2 1 pi Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Entropia dla zbioru zdarzeń równoprawdopodobnych Pytanie kontrolne - wynik: 2. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Entropia dla zbioru zdarzeń równoprawdopodobnych Pytanie kontrolne - wynik: 2. WNIOSEK: entropia będzie osiągała wartość maksymalną dla zbioru zdarzeń równoprawdopodobnych. Jest to własność bardzo intuicyjna: równy rozkład prawdopodobieństw wiąże się z najwyższym stopniem niepewności odnośnie tego, jaki element zbioru zostanie wybrany. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Entropia dla zbioru zdarzeń równoprawdopodobnych Obliczenie wartości entropii dla takiego zbioru może być oparte na (bardzo) uproszczonej formule: ilość informacji dla każdego symbolu będzie równa log2 (N), gdzie N = ilość symboli w zbiorze. Dla 4 równowartościowych symboli: log2 (4) = 2 4 P pi log2 p1i = pA 1log2 pA11 + ... = H= i=1 1 1 log + 41 log2 11 + 14 log2 11 + 41 log2 11 = 41 log2 4+ 14 log2 4+ 1 2 4 4 1 1 4 log2 4 + 4 log2 4 4 = 1 4 ∗2+ 1 4 4 ∗2+ Artur Machlarz 1 4 ∗2+ 1 4 4 ∗2 = 1 2 + 1 2 + 1 2 + 1 2 =2 Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Pozostałe własności entropii Własności entropii: maksymalną wartość uzyskuje dla zbioru wydarzeń równoprawdopodobnych; minimalną wartość uzyskuje dla zbioru, w którym jeden element ma prawdopodobieństwo równe 1 (system nie jest obarczony wtedy żadną niepewnością, a otrzymana wiadomość nie jest dla informowanego żadnym zaskoczeniem - nie niesie niczego nowego...). Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Sens pojęcia entropii Znany wzór na entropię jest wyrazem średniej informatywności dowolnego symbolu ze skończonego zbioru oraz przeciętnej ilości deficytu danych, które informowany posiada przed otrzymaniem komunikatu. Informowany przed otrzymaniem komunikatu nie wie, jaki symbol otrzyma (jeśli wie, to H = 0). Ma pewne oczekiwania, ponieważ wie, z jakiego zbioru będzie dokonywany wybór i zna rozkład prawdopodobieństw w tym zbiorze. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Ogólna charakterystyka teorii Shannona Ogólny model przepływu informacji Własności źródła informacji - Entropia Podsumowanie teorii informacji Shannona Teoria informacji Shannona - podsumowanie: Podstawowe pojęcia - elementy modelu, entropia, szum i redundancja. Informacja jest traktowana jako własność fizyczna. Abstrahujemy od wszelkiego rodzaju aspektów psychologicznych i semantycznych. Ograniczamy się jedynie do zbiorów skończonych (tzn. takich, którego elementy możemy policzyć - takie zbiory nazywa się zbiorami dyskretnymi). Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Drugie prawo termodynamiki i demon Maxwella Entropia w fizyce a entropia Shannona Sens pojęcia entropii w fizyce Przejście od układu uporządkowanego do nieuporządkowanego jest procesem nieodwracalnym. Rośnie ilość nieuporządkowanych ruchów molekuł a wraz z tym wzrostem spada ilość energii. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Drugie prawo termodynamiki i demon Maxwella Entropia w fizyce a entropia Shannona Drugie prawo termodynamiki Zgodnie z drugim prawem termodynamiki wzrost entropii (czyli od porządku do nieuporządkowania) całego uniwersum jest równoznaczny ze spadkiem dostępnej energii. Nie jest zaś możliwa zamiana wzrostu entropii na energię. Zgodnie z tym prawem także, jeśli mamy dwa ciała, które nie dopuszczają wymiany ciepła, to nie jest możliwe, żeby - jeśli te ciała mają tą samą temperaturę - powstawały różnice w temperaturze między nimi. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Drugie prawo termodynamiki i demon Maxwella Entropia w fizyce a entropia Shannona Demon Maxwella Eksperyment myślowy: Co mówi nam ten eksperyment? - że wbrew II zasadzie termodynamiki spadek entropii jest możliwy, więc zasada ta ma co najwyżej charakter statystyczny. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Drugie prawo termodynamiki i demon Maxwella Entropia w fizyce a entropia Shannona Demon Maxwella - możliwe rozwiązanie Leo Szilard (rozwiązanie z odniesieniem do fizycznej teorii informacji): demon musi posiadać informację o położeniu i prędkości molekuł. Fizyczna realizacja przetwarzania informacji przez demona przeważałaby nad spadkiem entropii. Negentropia jest zatem nadal niemożliwa. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Drugie prawo termodynamiki i demon Maxwella Entropia w fizyce a entropia Shannona Entropia w fizyce a entropia Shannona Pewne własności (matematyczne) są takie same: np. wysoki poziom entropii oznacza niższy poziom energii. W teorii Shannona - wysoka wartość entropii oznacza wyższą aprioryczną wartość niepewności u odbiorcy komunikatu. W obu przypadkach maksymalna wartość entropii oznacza równy rozkład wartości w zbiorze (ciepła lub prawdopodobieństwa). Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Drugie prawo termodynamiki i demon Maxwella Entropia w fizyce a entropia Shannona Entropia w fizyce a entropia Shannona Pewne własności (matematyczne) są takie same: np. wysoki poziom entropii oznacza niższy poziom energii. W teorii Shannona - wysoka wartość entropii oznacza wyższą aprioryczną wartość niepewności u odbiorcy komunikatu. W obu przypadkach maksymalna wartość entropii oznacza równy rozkład wartości w zbiorze (ciepła lub prawdopodobieństwa). Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Drugie prawo termodynamiki i demon Maxwella Entropia w fizyce a entropia Shannona Entropia w fizyce a entropia Shannona Dlaczego właściwie Shannon użył pojęcia entropii, zamiast ”informacji“, ”niepewności“ itp.? Moje najgłębsze zatroskanie budziła nazwa. Myślałem o nazwie ”informacja“, ale to słowo jest nadużywane, więc zdecydowałem się na nazwę ”niepewność“. Gdy omawiałem tą sprawę z Johnem von Neumannem, wpadł on na lepszy pomysł. Von Neumann powiedział mi: ”powinieneś to nazwać entropią z dwóch powodów. Po pierwsze, twoja funkcja niepewności jest używana w statystycznej mechanice pod tą nazwą, więc ona ma już nazwę. Po drugie zaś, co zresztą jest ważniejsze, nikt właściwie nie wie, czym tak naprawdę jest entropia, więc zawsze będziesz miał przewagę w dyskusji.“‘ (wypowiedź Shannona, cyt. za Francois Bavaud, Information Theory, Relative Entropy and Statistics, w: Formal Theories of Information Giovanni Sommaruga (Editor), s. 54.) Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Drugie prawo termodynamiki i demon Maxwella Entropia w fizyce a entropia Shannona Entropia w fizyce a entropia Shannona - Carnap i Bar-Hillel Wg von Neumanna podobieństwo tych pojęć sprawia, że teoria informacji może być wręcz postrzegana jako podstawa termodynamiki. Bar-Hillel zwraca uwagę na fakt, że to podobieństwo jest jedynie formalne entropia w termodynamice ma charakter empiryczny, natomiast w teorii informacji (semantycznej) jest pojęciem logicznym. Bar-Hillel zwraca też uwagę na fakt, że w termodynamice wartość entropii nie jest wyznaczona w tak precyzyjny sposób jak w teorii informacji. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Podsumowanie Idee Shannona, które są istotne dla całej przyszłej filozofii informacji: probabilistyczne ujęcie - a priori określona wartość p dla każdego elementu zbioru, znajomość zbioru zdarzeń i rozkładu prawdopodobieństw przez odbiorcę; wartość informacyjna jest odwrotnie proporcjonalna do prawdopodobieństwa sygnału (intuicja, że im bardziej prawdopodobne zdarzenie, tym mniejszą wartość dla informowanego ma sygnał informujący o tym zdarzeniu); całościowe ujęcie całego zbioru symboli; abstrahowanie od semantyki - problem do rozwiązania. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Literatura Duża część tego wykładu oparta jest na: Manuel Bremer, Daniel Cohnitz, Information and Information Flow. An Introduction., Frankfurt 2004, ss. 14-45. Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. Uwagi historyczne o teorii informacji Shannona Matematyczna Teoria Informacji Claude’a E. Shannona Pojęcie entropii w fizyce Podsumowanie Dziękuję za uwagę i zapraszam do stawiania pytań! Artur Machlarz e-mail: [email protected] www: http://www.uni.opole.pl/∼machlarz Artur Machlarz Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona.