Czym jest informacja?

Zastanawialiście się kiedyś czym tak na prawdę jest informacja? Czy ma ona jakieś wartości? Kolor, smak, wygląd lub jakąkolwiek formę?

Projekt dyplomowy Model percepcji wymaga przedstawienia informacji w postaci wizualizacji trójwymiarowej, dlatego postawiłem sobie i Wam powyższe pytania.

Na początek musimy rozróżnić informację od danych, ponieważ po chwili zastanowienia okazuje się, że to nie to samo.
13.04 to puste liczby, ale kiedy nadamy im sens (np. data urodzin) stają się informacją.

Każda informacja jest danymi, ale nie każde dane są informacją

Tak więc informacja nie ma formy, aby ją nadać musimy zwerbalizować, narysować, wskazać jakieś dane. Informacja to komunikatywna wiadomość, dane którym został nadany sens.

Informacje w czasoprzestrzeni

Skoro udało nam się już “zmaterializować” informację, przenieśmy się o wymiar wyżej. Informacja przeniesiona w czasie to inaczej zapamiętywanie lub magazynowanie. Przenoszenie informacji w przestrzeni to inaczej przekaz lub komunikowanie.

Zapamiętywanie i przekazywanie informacji

il. 1

Kolejność i regularność

System komunikacji pozwala zapisać informacje przy użyciu danych zapisanych w pewnych wzorach, w pewnej kolejności:

  • Kolejność molekuł w DNA zawiera informacje opisujące konkretnego człowieka
  • Kolejność zer i jedynek tworzy zapis w systemie binarnym
  • Kolejność liter tworzy informację

Ważność informacji

Słowa w wiadomości tekstowej nie niosą ze sobą tej samej liczby informacji. Na przykład po ciągu znaków kompute przewidujesz, że kolejną literą będzie r. Spora ilość znaków w treści jest zbędna do przekazania tej samej informacji.

Pojemność ilustracji

il. 2

Jeden z twórców teorii informacji Claude Shannon szacuje redundancję języka angielskiego na ok 75%, dlatego można zrozumieć tekst: if u cn rd ths – u r smrt. To oznacza, że język angielski może być kompresowany ponieważ nie jest przypadkowy. Ma wzory, jest powtarzalny. Czysta informacja to taka, która jest całkowicie losowa, nie ma w niej wzorów, jest całkowicie zredukowana. Więc czysta porcja informacji jest losowa/przypadkowa (ang. ranom).

Wniosek: żeby wiedzieć ile informacji jest zawarte w porcji, potrzebne jest wiedzieć jak bardzo jest ona losowa.
Losowość to nieład -> chaos -> entropia. Więc informacja = entropia.

Przykład:

000000000 – ciąg znaków nie zawiera żadnej informacji.
Entropia = 0. Łatwo przewidzieć kolejne. 

001001001 – ciąg zawiera nieco więcej informacji, ale można je skompresować powtórzenie(001).
Entropia > 0. Jest wzór, da się przewidzieć następne cyfry.

011001010 – ciąg zawierający maksimum informacji. Nie ma wzoru, nie ma powtórzeń.
Entropia ~1 . Nie da się przewidzieć kolejnej cyfry patrząc na poprzednie. Czysta informacja.

Nasuwa się pytanie Czy całkowicie czysta informacja jest użyteczna?
Nie jest, ponieważ jest całkowicie losowa. Dopiero gdzieś pomiędzy losowością a ładem tworzy się informacja.

Ciekawostka: na stronie Shannon entropy calculator znajduje się kalkulator entropii z dziedziny teorii informacji.

Wnioski do projektu

Wiemy, że można nadać formę informacji, przenosić ja w czasie i przestrzeni, oraz że wielkość informacji zależy od jej losowości.