Czym z fizycznego punktu widzenia jest informacja? Czy w ogóle istnieje w fizyce takie pojęcie?
Czym z fizycznego punktu widzenia jest informacja? Czy w ogóle istnieje w fizyce takie pojęcie?
W fizyce często używa się pojęcia „informacja”, choć nie tak często spotyka się formalną definicję tego terminu w podręcznikach. Użycie tego terminu zależy też w istotny sposób od kontekstu – zazwyczaj pojęcie „informacja” pojawia się w kontekście opisu pewnego układu fizycznego, który może być różny w przypadku różnych teorii taki układ opisujących; w szczególności informacja która jest nam (tzn. obserwatorowi) „dostępna” zależeć może od rozpatrywanej teorii.
W przypadku mechaniki klasycznej stan układu może być opisany poprzez podanie położeń i prędkości wszystkich punktów materialnych wchodzących w jego skład. Taka informacja może być traktowana jako zestaw warunków początkowych, determinujących zachowanie układu, którego ewolucja w mechanice klasycznej zadana jest układem równań różniczkowych (np. równań Newtona). Przy zadanych warunkach początkowych równania takie mają jednoznaczne rozwiązania – zatem podanie informacji o stanie układu w chwili początkowej jednoznacznie determinuje stan tego układu w dowolnej chwili w przyszłości.
W praktyce nie jest możliwe podanie powyższej informacji dla układów makroskopowych, złożonych z ogromnej ilości cząstek (niezależnie od tego, że na poziomie mikroskopowym zachowania takich cząstek nie opisuje mechanika klasyczna, ale kwantowa – o czym poniżej). A nawet gdyby taka informacja była dostępna, to tak czy inaczej raczej nie byłoby możliwe rozwiązanie ogromnego układu równań różniczkowych opisujących taki układ. Tym niemniej, duże układy można opisywać stosując formalizm fizyki statystycznej, która z kolei jest bardzo blisko związana z tzw. (matematyczną) teorią informacji. W szczególności, jedną z podstawowych wielkości w fizyce statystycznej jest entropia, zdefiniowana jako
$$ S = – k_B \sum_i p_i \log p_i, $$
gdzie $p_i$ oznacza prawdopodobieństwo wykrycia mikrostanu $i$, natomiast $k_B$ jest tzw. stałą Boltzmana. W zupełnie analogiczny sposób entropię definiuje się w teorii informacji, gdzie $p_i$ oznacza prawdopodobieństwo zajścia zdarzenia $i$ (oraz w powyższym wzorze nie uwzględnia się stałej $k_B$, która tak czy inaczej jest jedynie konsekwencją pewnego wyboru jednostek). W teorii informacji entropię interpretuje się jako średnią ilość informacji potrzebną do wystąpienia danego zdarzenia, spośród zbioru wszystkich zdarzeń o danych prawdopodobieństwach. W konsekwencji, mniej formalnie rzecz ujmując, zwiększenie entropii oznacza utratę informacji. Jednostką w ten sposób definiowanej informacji (w przypadku gdy podstawą logarytmu w powyższym wzorze jest liczba 2) jest „bit”; innymi słowy, jeden bit jest ilością informacji potrzebną do zakodowania, które z dwóch możliwych zdarzeń zajdzie w rzeczywistości. Tak rozumiana informacja ma także bardzo konkretne fizyczne znaczenie – w roku 1929 Leo Szilard zaproponował eksperyment myślowy, tzw. „maszynę Sziladra”, która pozwala na zamianę informacji w energię układu. Zjawisko to zostało potwierdzone doświadczalnie w 2010 roku.
Sprawy jeszcze bardziej się komplikują w przypadku mechaniki kwantowej. Z powodu zasady nieoznaczoności Heisenberga, w tym wypadku nie jest możliwe podanie stanu nawet pojedynczej cząstki w takim sensie jak w fizyce klasycznej – np. im dokładniej jesteśmy w stanie określić położenie cząstki, tym większym błędem musi być obarczona informacja dotycząca pędu takiej cząstki (należy podkreślić, że jest to fundamentalna własność przyrody, a nie kwestia dokładności naszej aparatury pomiarowej). W konsekwencji w mechanice kwantowej często stosuje się pojęcie kwantowej informacji, której jednostką jest tzw. „qubit”. Kwantowa informacja także jest nierozerwalnie związana z innymi wielkościami fizycznymi – np. można wykazać, iż możliwe jest (przynajmniej teoretycznie) skonstruowanie tzw. kwantowej maszyny Szilarda, która potrafiłaby zamienić kwantową informację na energię. Obecnie bardzo prężnie rozwija się dziedzina na styku teorii informacji i mechaniki kwantowej (a zatem mająca jak najbardziej fizyczne podstawy), zwana „teorią kwantowej informacji” (jednym z bardziej interesujących problemów w tej dziedzinie rozpatrywanych jest konstrukcja tzw. komputerów kwantowych).
Pojęcie informacji jest istotne także przy uwzględnieniu postulatów teorii względności. Konsekwencją tych postulatów jest m.in. to, iż informacja nie może być przekazywana szybciej niż prędkość światła. Prowadzi to do wielu nietrywialnych zagadnień, szczególnie przy połączeniu postulatów teorii względności z mechaniką kwantową, takich jak np. słynny paradoks EPR (dotyczący przekazywania informacji pomiędzy parą tzw. stanów splątanych), czy też paradoks informacyjny czarnych dziur (dotyczący znikania informacji we wnętrzu czarnych dziur).
Jak z powyższego, z konieczności bardzo pobieżnego przeglądu różnych teorii i zagadnień fizycznych wynika, informacja jest bardzo istotnym pojęciem w fizyce.