Entropia

własność fizyczna stanu systemu, miara losowości
Rozmowa z prof. Robertem Hołystem. Podcast z serii Nauka XXI wieku

Entropia (s lub S[a]) – termodynamiczna funkcja stanu, określająca kierunek przebiegu procesów spontanicznych (samorzutnych) w odosobnionym układzie termodynamicznym. Entropia jest miarą stopnia nieuporządkowania układu[2][3] i rozproszenia energii[4]. Jest wielkością ekstensywną[b]. Zgodnie z drugą zasadą termodynamiki, jeżeli układ termodynamiczny przechodzi od jednego stanu równowagi do innego, bez udziału czynników zewnętrznych (a więc spontanicznie), to jego entropia zawsze rośnie. Pojęcie entropii wprowadził niemiecki uczony Rudolf Clausius.

W termodynamice klasycznej

edytuj

W ramach II zasady termodynamiki zmiana entropii (w procesach kwazistatycznych) jest zdefiniowana przez swoją różniczkę zupełną jako:

 

gdzie:

 temperatura bezwzględna,
 ciepło elementarne, czyli niewielka ilość ciepła dostarczona do układu (wyrażenie Pfaffa).

Entropię pewnego stanu termodynamicznego   można wyznaczyć ze wzoru:

 

gdzie:

 pojemność cieplna,
  – temperatura w stanie  

Podstawowe równanie termodynamiki fenomenologicznej, w którym występuje entropia, ma postać

 

gdzie:

 energia wewnętrzna,
  – liczba różnych składników,
 temperatura  
 ciśnienie  
 potencjał chemiczny i-tego składnika  

W termodynamice statystycznej

edytuj

Całkowita entropia układu makroskopowego jest równa[5]:

  • entropii Boltzmanna–Plancka[6]:
 

równoważnie:

  • entropii Gibbsa[7]:
 

gdzie:

 stała Boltzmanna,
  – liczba sposobów, na jakie makroskopowy stan termodynamiczny układu (makrostan) może być zrealizowany poprzez stany mikroskopowe (mikrostany),
  – prawdopodobieństwo i-tego mikrostanu.

Zatem

 

jest liczbą bitów potrzebnych do pełnego określenia, którą realizację przyjął dany układ.

Praktyczne obliczenie W jest w większości przypadków technicznie niemożliwe, można jednak oszacowywać całkowitą entropię układów poprzez wyznaczenie ich całkowitej pojemności cieplnej poczynając od temperatury 0 K do aktualnej temperatury układu i podzielenie jej przez temperaturę układu.

Ciało pozbawione niedoskonałości, zwane kryształem doskonałym, ma w temperaturze 0 bezwzględnego (0 K) entropię równą 0, gdyż jego stan może być zrealizowany tylko na jeden sposób (każda cząsteczka wykonuje drgania zerowe i zajmuje miejsce o najmniejszej energii). Jest to jedno ze sformułowań trzeciej zasady termodynamiki. Oznacza to, że każde rzeczywiste ciało ma w temperaturze większej od zera bezwzględnego entropię większą od zera.

Aspekt fizyczny

edytuj

Carnot zaproponował, że ciepło musi być zawsze tracone, aby silnik cieplny mógł wykonywać swoją pracę, ale nie okreśił ilościowo straty ciepła. Rudolf Clausius w swoim artykule „On the Moving Force of Heat, and the Laws regarding the Nature of Heat itself which are deducible therefrom” z 1851 roku potwierdził dwie teorie:[8]

  • energia wewnętrzna jest zachowana (pierwsza zasada termodynamiki), określona jako  
  • ciepło przepływa w sposób naturalny z ciała cieplejszego do chłodniejszego (bez określenia ilościowego)

Po przedstawieniu cyklu Carnota rozszerzonego o trzecie ciało (gaz doskonały), które odpowiada za transport ciepła pomiędzy dwoma zbiornikami, Clausius zauważył, że w przypadku silników odwracalnych iloraz ciepła dostarczonego do odprowadzonego był stale równe ilorazowi temperatur bezwzględnych cieplejszego i chłodniejszego zbiornika:

  •  

co po przekształceniu dało:

  •  

Clausius następnie zbadał silniki nieodwracalne i stwierdził, że powyższa relacja nie zachodzi, np. gdy następuje przepływ   ciepła z ciała o temperaturze   do ciała o temperaturze  , to:[8]

  •  

To oznacza, że dla procesu nieodwracalnego, iloraz ciepła do temperatury bezwzględnej wzrasta w kierunku naturalnego przepływu ciepła. W sumie, dla silnika cieplnego:

  •  

natomiast dla sekwencji procesów:

  •  

gdzie   jest ilorazem ilości przesłanego ciepła w procesie do temperatury otoczenia, gdzie ciepło jest przesyłane.

Podsumowując, iloraz ilości ciepła do temperatury ma cechy właściwości, ponieważ nie zmienia się w cyklu, ale jest również związany z przekazywaniem ciepła.[8]

Clausius, nazwał ten iloraz „wartością równoważną”, zdefiniował także „przemianę równoważną” (taką, która może być zastąpiona przez inną bez żadnej innej trwałej zmiany).

Iloraz   jest funkcją, która:

  • przy zamianie ciepła   na pracę w temperaturze   musi być proporcjonalna do ilości ciepła i zależeć od temperatury:  
  • przy przepływie ciepła między ciałami o temperaturach   i   musi być proporcjonalna do ilości przekazanego ciepła i zależeć od obu temperatur:  

Po serii obliczeń i przekształceń, Clausius otrzymał równość   i na podstawie równości   postanowił wprowadzić za   funkcję  

Wtedy zamiana ciepła   o temperaturze T na pracę ma wartość równoważną   a przepływ ciepła   między ciałami o temperaturach   i   ma wartość równoważną  

W 1865 Clausius nazwał „wartość równoważną” entropią i wybrał dla niej symbol  

Istnienie oraz postać funkcji stanu zwanej entropią wynika właśnie wprost z równania opisującego cykl Carnota:

  •  

Fakt ten wyróżnia w jakiś sposób wielkość   W cyklu pracy silników odwracalnych ciepło   w temperaturze   jest równoważne ciepłu   w temperaturze     jest pochłaniane, a   wydzielane. Ta sama ilość wielkości   zostaje pochłonięta, co wydzielona (nie ma ani straty, ani zysku).

Suma algebraiczna wartości   przy przemianie odwracalnej jest równa zero. Gdy mamy do czynienia z procesem cyklicznym, to:

  •  

W przypadku procesu nieodwracalnego, wystąpi przepływ ciepła   z ciała o temperaturze   do ciała o temperaturze   Wtedy entropia układu zmieni się o:

  •  

Z faktu, że   wynika   Gdy proces nieodwracalny jest cykliczny, to  

Aspekt matematyczny

edytuj

Entropia jest funkcją stanu, to znaczy, że jej wartość zależy wyłącznie od stanu układu (od aktualnych wartości jego parametrów). Zmiana funkcji stanu nie zależy od drogi, lecz jedynie od stanu początkowego i końcowego układu. Z punktu widzenia matematycznego różniczka entropii   jest różniczką zupełną i wynik jej całkowania nie zależy od drogi całkowania. Z pierwszej zasady dynamiki:

  •  

podstawiając     oraz   otrzymujemy różniczkę ciepła:

  •  

Możemy stwierdzić, że różniczka ciepła   nie jest różniczką zupełną, gdyż:

  •  

Poszukujemy zatem czynnika całkującego, aby:

  •  

co po uproszczeniach daje:

  •  

Rozwiązując to równanie różniczkowe zwyczajne, otrzymujemy:  

Wtedy   jest różniczką zupełną, a zatem   jest funkcją stanu.

Ponadto, z równania opisującego cykl Carnota   stosując drugą zasadę termodynamiki w formie Kelvina-Plancka:         wynika, że:

  •  

W przypadku, gdy wszystkie przemiany są odwracalne, to:

  •  

Na tej podstawie można wykazać, że entropia w procesie przeprowadzającym układ od stanu 1 do stanu 2 wynosi:

  •  

Natomiast w przypadku procesu odwracalnego zachodzi równość.

Jeśli układ jest izolowany, to   (entropia wtedy nie maleje). Oznacz to, że układ jest w stanie 2 później niż w stanie 1 (entropia rośnie, ponieważ czas płynie naprzód)[9].

W ogólnej teorii względności, aby opisać czarną dziurę, wystarczy podać jej masę, moment pędu i ładunek elektryczny. Zgodnie z tą teorią czarna dziura nie zawiera żadnej informacji ponad te parametry. Do czarnej dziury wpada materia o niezerowej entropii, zatem przy wpadaniu entropia całego układu się zmniejsza. Wynika z tego, że ogólna teoria względności łamie drugą zasadę termodynamiki. Fizycy zaczęli więc poszukiwać uogólnienia teorii czarnych dziur, tak żeby pozostawała w zgodzie z termodynamiką. Owocne okazało się rozważenie efektów kwantowych.

Wzór na entropię czarnej dziury powstał przy założeniu, że podczas spadania ciała do czarnej dziury jej masa rośnie wraz z jej entropią; proporcjonalny do masy jest horyzont zdarzeń, czyli promień Schwarzschilda. Ścisły wzór wg Stephena Hawkinga ma postać:

 

gdzie:

 stała Boltzmanna,
  – powierzchnia horyzontu zdarzeń czarnej dziury,
 prędkość światła w próżni,
  – zredukowana stała Plancka,
  – stała grawitacyjna.

Kosmologia

edytuj

Według II zasady termodynamiki każdy układ izolowany dąży do stanu równowagi, w którym entropia osiąga maksimum. Zakładając, że Wszechświat jako całość jest układem izolowanym, powinien on również dążyć do równowagi. Wychodząc z tych założeń, Hermann von Helmholtz wysunął hipotezę śmierci cieplnej Wszechświata, według której Wszechświat w końcu dojdzie do równowagi termodynamicznej, w której niemożliwa będzie zamiana energii cieplnej na pracę, przez co niemożliwy będzie rozwój Wszechświata. Stwierdzenie tego faktu jest jednak stosunkowo trudne do zaobserwowania i dlatego prowadzi się liczne dyskusje, czy Wszechświat jest, czy nie jest układem izolowanym, czy też tylko zamkniętym, oraz czy rzeczywiście dąży jako całość do równowagi. Przeciwnicy tej koncepcji są zdania, że rozszerzającego się Wszechświata nie można traktować jako układu izolowanego, gdyż nie można wyznaczyć obszaru, z którego nie wychodziłoby promieniowanie. Wiadomo jedynie, że entropia olbrzymiej większości znanych układów izolowanych rośnie w kierunku, który nazywamy przyszłością. Tak więc, z tego punktu widzenia, termodynamika określa kierunek upływu czasu (tzw. termodynamiczna strzałka czasu).

Według Boltzmanna aktualna entropia Wszechświata jest jeszcze bardzo niska, w porównaniu z wartością „docelową”, na co dowodem miały być wysokie wartości fluktuacji statystycznych zjawisk obserwowanych w skali kosmosu – np. bardzo nierównomierne rozmieszczenie gwiazd w przestrzeni. Współcześnie taka interpretacja entropii jest jednak uważana za całkowicie nieuprawnioną z kosmologicznego punktu widzenia.

Powiązania z innymi naukami

edytuj

Z punktu widzenia fizycznego każdy proces ekonomiczny również ma charakter jednokierunkowego wzrostu entropii, sporadycznie formułowano teorie o ekwiwalentności pieniądza i niskiej entropii (G. Helm, J. Lotka[10]).

Zobacz też

edytuj
  1. Małą literę stosuje się w ujęciu ogólnym, dużą dla wielkości molowej[1].
  2. W opisie układów dalekich od stanu równowagi, klasyczna (ekstensywna) termodynamika zawodzi. Próby jej rozszerzenia, w oparciu o teorie Rényi’ego i Tsallisa wymagają bardziej ogólnej definicji entropii. Entropie Rényi’ego i Tsallisa są w ogólności nieekstensywne; obejmująca je dziedzina badań nosi nazwę termodynamiki nieekstensywnej.

Przypisy

edytuj
  1. Witold Tomassi, Helena Jankowska: Chemia fizyczna. Warszawa: Wydawnictwa Naukowo-Techniczne, 1980, s. 29. ISBN 83-204-0179-8.
  2. F. Reif, Fizyka statystyczna, PWN, Warszawa 1973, s. 171.
  3. Entropia, [w:] Encyklopedia PWN [online], Wydawnictwo Naukowe PWN [dostęp 2021-07-30].
  4. Heller i Pabjan 2014 ↓, s. 68–70.
  5. Heller i Pabjan 2014 ↓, s. 70.
  6. Boltzmanna–Plancka entropia, [w:] Encyklopedia PWN [online], Wydawnictwo Naukowe PWN [dostęp 2020-02-27].
  7. Gibbsa entropia, [w:] Encyklopedia PWN [online], Wydawnictwo Naukowe PWN [dostęp 2020-02-27].
  8. a b c CLAUSIUS INEQUALITY AND ENTROPY. [dostęp 2024-03-08].
  9. Joseph M. Powers: Lecture Notes on Thermodynamics. Indiana: Department of Aerospace and Mechanical Engineering. University of Notre Dame., 2023, s. 213–245.
  10. Nicholas Georgescu-Roegen: Entropia, wartość i rozwój. W: Ponad ekonomią. Warszawa: PIW, 1985, s. 363. ISBN 83-06-01042-6.

Bibliografia

edytuj

Linki zewnętrzne

edytuj
Polskojęzyczne
Anglojęzyczne