Термодинамическая энтропия

Термодинамические величины
Статья является частью серии «Термодинамика».
Энтропия
Количество теплоты
Термодинамическая работа
Химический потенциал
См. также: Термодинамические потенциалы.
Разделы термодинамики
Начала термодинамики
Уравнение состояния
Термодинамические величины
Термодинамические потенциалы
Термодинамические циклы
Фазовые переходы

Термодинами́ческая энтропи́я S, часто просто именуемая энтропия, в химии и термодинамике является мерой количества энергии в физической системе, которая не может быть использована для выполнения работы. Она также является мерой беспорядка, присутствующего в системе.

Содержание

Термодинамическое определение энтропии

Понятие энтропии было впервые введено в 1865 году Рудольфом Клаузиусом. Он определил изменение энтропии термодинамической системы при обратимом процессе как отношение изменения общего количества тепла ΔQ к величине абсолютной температуры T:

\Delta S = \frac{\Delta Q}{T}

Рудольф Клаузиус дал величине S имя «энтропия», происходящее от греческого слова τρoπή, «изменение» (изменение, превращение, преобразование). Обратите внимание на то, что равенство относится к изменению энтропии.

Эта формула применима только для изотермического процесса (происходящего при постоянной температуре). Её обобщение на случай произвольного квазистатического процесса выглядит так:

dS = \frac{\delta Q}{T},

где dS - приращение (дифференциал) энтропии, а δQ - бесконечно малое приращение количества теплоты.

Необходимо обратить внимание на то, что рассматриваемое термодинамическое определение применимо только к квазистатическим процессам (состоящим из непрерывно следующих друг за другом состояний равновесия).

Заметим, что энтропия является функцией состояния, поэтому в левой части равенства стоит её полный дифференциал. Напротив, количество теплоты является функцией процесса, в котором эта теплота была передана, поэтому δQ ни в коем случае нельзя считать полным дифференциалом.

Энтропия, таким образом, определена вплоть до произвольной аддитивной постоянной. Третье начало термодинамики позволяет определить её точно: при этом энтропию равновесной системы при абсолютном нуле температуры считают равной нулю.

Статистическое определение энтропии: принцип Больцмана

В 1877 году Людвиг Больцман понял, что энтропия системы может относиться к количеству возможных «микросостояний» (микроскопических состояний), согласующихся с их термодинамическими свойствами. Рассмотрим, например, идеальный газ в сосуде. Микросостояние определено как позиции и импульсы (моменты движения) каждого составляющего систему атома. Связность предъявляет к нам требования рассматривать только те микросостояния, для которых: (I) месторасположения всех частей расположены в рамках сосуда, (II) для получения общей энергии газа кинетические энергии атомов суммируются. Больцман постулировал, что

S = k (\ln \Omega) \,\!

где константу k=1,38·10–23 Дж/К мы знаем теперь как постоянную Больцмана, а Ω является числом микросостояний, которые возможны в имеющемся макроскопическом состоянии. Этот постулат, известный как принцип Больцмана, может быть оценен как начало статистической механики, которая описывает термодинамические системы, используя статистическое поведение составляющих их компонентов. Принцип Больцмана связывает микроскопические свойства системы (Ω) с одним из её термодинамических свойств (S).

Согласно определению Больцмана, энтропия является просто функцией состояния. Более того, так как Ω может быть только натуральным числом (1,2,3,…), энтропия должна быть положительной — исходя из свойств логарифма.

Энтропия как мера беспорядка

Мы можем смотреть на Ω и как на меру беспорядка в системе. Это оправдано, потому что мы думаем об «упорядоченных» системах как о системах, имеющих очень малую возможность конфигурирования, а о «беспорядочных» системах, как об имеющих очень много возможных состояний. Рассмотрим, например, набор 10 монет, каждая из которых может находиться либо в состоянии «орёл», либо в состоянии «решка». Наиболее «упорядоченным» макроскопическим состоянием будет являться или 10 «орлов», или 10 «решек»; для каждого результата в каждом случае имеется только одна возможная конфигурация. И наоборот, наиболее «неупорядоченное» состояние содержит 5 «орлов» и 5 «решек», и здесь 10C5 = 252 способов для получения этого результата (см. комбинаторика.)

Статистическое определение энтропии второй закон термодинамики гласит, что беспорядок в изолированной закрытой системе может только возрастать. Это можно понять, взяв тот же пример с монетами. Допустим, что мы начали с 10 «орлами» и переворачиваем одну случайную монету каждую минуту. Когда мы проверим состояние системы через достаточно большой промежуток времени, возможно, что мы увидим 10 «орлов» или даже 10 «решек», но вероятность этого очень мала; более вероятно, что мы увидим приблизительно равное количество «орлов» и «решек». То есть мы можем утверждать, что в замкнутой системе произвольно протекающие процессы наиболее вероятно протекают в направлении увеличения беспорядка или энтропии.

Измерение энтропии

В реальных экспериментах очень трудно измерить энтропию системы. Техники измерения базируются на термодинамическом определении энтропии и требуют экстремально аккуратной калориметрии.

Для упрощения мы будем исследовать механическую систему, термодинамические состояния которой будут определены через её объем V и давление P. Для измерения энтропии определенного состояния мы должны сперва измерить теплоёмкость при постоянных объёме и давлении (обозначенную CV и CP соответственно), для успешного набора состояний между первоначальным состоянием и требуемым. Тепловые ёмкости связаны с энтропией S и с температурой T согласно формуле:

C_X = T \left(\frac{\partial S}{\partial T}\right)_X

где нижний индекс X относится к постоянным объёму и давлению. Мы можем проинтегрировать для получения изменения энтропии:

\Delta S = \int \frac{C_X}{T} dT

Таким образом, мы можем получить значение энтропии любого состояния (P,V) по отношению к первоначальному состоянию (P0,V0). Точная формула зависит от нашего выбора промежуточных состояний. Для примера, если первоначальное состояние имеет такое же давление, как и конечное состояние, то

S(P,V) = S(P, V_0) + \int^{T(P,V)}_{T(P,V_0)} \frac{C_P(P,V(T,P))}{T} dT

В добавление, если путь между первым и последним состояниями лежит сквозь любой фазовый переход первого рода, скрытая теплота, ассоциированнае с переходом, должна также учитываться.

Энтропия первоначального состояния должна быть определена независимо. В идеальном варианте выбирается первоначальное состояние как состояние при экстремально высокой температуре, при которой система существует в виде газа. Энтропия в этом состоянии подобна энтропии классического идеального газа плюс взнос от молекулярных вращений и колебаний, которые могут быть определены спектроскопически.

Построение графика изменения энтропии

Основная статья: адиабатический процесс

Следующее уравнение может быть использовано для построения графика изменения энтропии на диаграмме P-V:

S = n R \ \ln (1 + P^{C_V \over R} V^{C_P \over R})

Здесь два замечания: (1) это не определение энтропии (но выведено из него), (2) предполагается, что CV и CP постоянные, что на самом деле не так.

См. также

Литература

  • Fermi, E., Thermodynamics, Prentice Hall (1937)
  • Reif, F., Fundamentals of statistical and thermal physics, McGraw-Hill (1965)

Ссылки

 
Начальная страница  » 
А Б В Г Д Е Ж З И Й К Л М Н О П Р С Т У Ф Х Ц Ч Ш Щ Ы Э Ю Я
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
0 1 2 3 4 5 6 7 8 9 Home