Entropie statistică

De la Wikipedia, enciclopedia liberă
Salt la: Navigare, căutare

Entropia statistică este o noțiune introdusă de Ludwig Boltzmann în 1870 și definită de formula S = k_B \ln \Omega \!. Pentru a o defini, se consideră un sistem macroscopic, cu o anumită macrostare, și se numerotează microstările corespunzătoare prin 1, 2, ..., i, ...; probabilitatea ca sistemul să se afle în starea i este wi.

Deoarece nu se precizează condițiile concrete în care se află sistemul, valorile probabilităților wi nu se cunosc; singurul lucru cunoscut este condiția de normare {\sum_{i}^{\mathrm{} \; \mathrm{}} w_i}=1.

În locul sistemului dat, se consideră un ansamblu format dintr-un număr mare de sisteme identice, fiecare având aceleași probabilități wi de a se afla în microstarea i. Numărul de microstări ale ansamblului corespunzator situației în care n1 sisteme se află în starea 1, n2 sisteme se află în starea 2, etc, adică ponderea statistică Ωn este: Ωn={\frac {n!}{n_1!n_2!...n_i!...}}.

Cu alte cuvinte, Ωn reprezintă numărul de moduri în care se poate realiza distribuția particulară (n1, n2, etc).

Conform definiției lui Boltzmann, rezultă că entropia ansamblului considerat anterior este dată de expresia: S = k_B \ln \Omega \! = k_B \ln \ {\frac {n!}{n_1!n_2!...n_i!...} = k_B (ln n! - { \sum_{i}^{\mathrm{} \; \mathrm{}} n_i!)}}.

Folosind formula lui Stirling: ln n!=n ln n - n, si ca { \sum_{i}^{\mathrm{} \; \mathrm{}} n_i!}=n , și de asemenea relația Sn=nS, expresia de mai sus devine:

S = -k_B\,\sum_i w_i \ln \,w_i