Всего на сайте:
210 тыс. 306 статей

Главная | Физика

Энтропия.  Просмотрен 77

Энтропия-функция состояния системы.

В термодинамикеприращение энтропии равно суммарному приведенному количеству теплоты, полученной системой:

Отсюда следует, если система получает теплоту, то S возрастает, если система отдает теплоту, то S убывает.

Используя I закон термодинамики можно получить расчетные формулы для энтропии.

 

В статистической физике Больцман установил статистический, вероятностный смысл энтропии.

где k-постоянная Больцмана;

W- термодинамическая вероятность, равная числу способов, которыми может быть реализовано данное состояние системы.

Чем выше вероятность состояния системы, тем выше значение энтропии.

Равновесное состояние системы наиболее вероятное.

При переходе системы из неравновесного состояния в равновесное значение энтропии возрастает, достигая в равновесном состоянии максимального значения.

Установлено, что энтропия - мера хаоса, беспорядка в системе. Чем выше беспорябо, хаос в системе, тем больше значение энтропии.

В изолированной системе процессы протекают в направлении перехода системы в равновесное состояние (когда молекулы, энергия равномерно, хаотически распределены по системе). При этом энтропия системы возрастает.

Примеры с явлениями переноса.

Статистическая формулировка II закона термодинамики:

Предыдущая статья:Второй закон (начало) термодинамики. Следующая статья:Общественные блага и их свойства.
page speed (0.0113 sec, direct)