Ентропія – що це таке, простими словами в хімії, фізиці і який її коефіцієнт

Поняття ентропії використовується в різних науках: фізиці, хімії, математики, біології, соціології. Саме слово походить від грецького і означає «перетворення, зміна». Що це таке, простими словами? Можна сказати, що це міра безладу, випадковості в будь-якій системі. Чим менше порядку, тим більше її значення. Якщо книги стоять на полиці, невпорядкованість у них менше, ніж якщо вони лежать купою.

Що означає термін

Визначення даного терміна залежить від сфери його застосування. У загальних словах можна сказати, що це міра безладу і незворотного розсіювання енергії. Чим більш впорядкована якась система, тим більш сконцентрована енергія. Наприклад, якщо ми помістимо гарячий предмет в холодну воду, поступово він охолоне, а вода нагріється. У другому випадку ентропія більше.

Важливо! Ентропія характеризує безлад. Чим вона більше, тим менше впорядкована система.

В якості системи може виступати що завгодно. У фізиці чи хімії це зазвичай газ, рідина, тверде тіло, набір певного числа частинок. В інформатиці це може бути текст, в соціології група людей.

Термін ентропія

У фізиці

Цей термін використовується в таких розділах фізики, як термодинаміка і статистична фізика. Термодинаміка вивчає способи передачі і перетворення енергії. Вона має справу з процесами, у яких можна використовувати поняття температури. Саме в термодинаміці вперше почали використовувати це поняття. Ввів його німецький учений Рудольф Клаузіус. Статистична механіка вивчає поведінку систем з кінцевої кількості частинок, використовуючи для цього методи теорії ймовірності.

У різних розділах фізики цей термін означає дещо різні речі. У термодинаміці це характеристика незворотного розсіювання енергії. У статистичній фізиці ця величина показує ймовірність якогось стану.

В термодинаміці

Ентропія — єдина величина, що показує напрямок фізичних процесів. Що це означає?

  • В ізольованій системі, тобто тієї, яка не обмінюється ні речовиною, ні енергією з оточуючими предметами, процеси завжди йдуть так, що невпорядкованість збільшується. Досягнувши максимуму, вона залишається постійною. В цьому суть другого початку термодинаміки.
  • Оборотні процеси не змінюють невпорядкованість.
  • Незворотні процеси завжди йдуть так, що безлад збільшується.
    У відкритій системі ця величина може зростати або залишатися постійною, можливі і такі процеси, при яких безлад зменшується. Тобто втручанням ззовні ми можемо зменшити невпорядкованість.

Всяка система, що знаходиться в незмінних зовнішніх умовах, з часом приходить в стан рівноваги і не може самостійно з нього вийти. При цьому всі її частини будуть мати однакову температуру. Це нульовий початок термодинаміки.

У рівновазі безлад найбільше. Наприклад, є посуд, розділений перегородкою. З одного боку знаходиться один газ, з іншого — інший. Якщо прибрати перегородку, поступово гази змішаються і самостійно вже не розділяться знову. Такий стан буде більш хаотичним, ніж стан, коли гази були розділені.

У фізиці ця величина — функція стану системи. Це означає, що вона залежить від параметрів системи:

  • температури;
  • тиску;
  • обсягу;
  • внутрішньої енергії.

У статистичній механіці

У статистичній механіці це поняття пов’язане з ймовірністю отримати певний стан. Наприклад, для декількох предметів або частинок вона залежить від числа способів їх розташувати.

Є кілька визначень цієї величини. Найбільш просте визначення Больцамана. Вона дорівнює логарифму ймовірності стану, помноженому на постійну Больцмана: S=k*ln(W).

Корисне відео: що таке ентропія

Абсолютне значення

Ентропія — величина невід’ємна (більше або дорівнює нулю). Чим ближче температура до абсолютного нуля, тим вона теж ближче до нуля. Це третій початок термодинаміки. У первісному вигляді його сформулював Макс Планк у 1911 році.

Також третій початок термодинаміки називають принципом недосяжності абсолютного нуля. Це означає, що при будь-яких процесах, пов’язаних із зміною невпорядкованості, неможливо досягти абсолютного нуля (0К, або -273,15 С). Можна лише нескінченно наближатися до цієї температурі. Вчені домовилися, що при 0 До невпорядкованість дорівнює 0.

Важливо! Абсолютне значення невпорядкованості можна порахувати як зміна енергії при даній температурі.

В термодинаміці зазвичай не має значення абсолютна величина, важливо тільки її зміна. Проте можна знайти і абсолютне значення. Воно обчислюється за різними формулами для твердого, рідкого і газоподібного стану речовини. Ця величина вимірюється в Дж/К або Дж/градус, тобто в тих же одиницях, що і теплоємність. Зручно поділити цю величину на масу або кількість моль речовини. Тому використовують одиниці Дж/(моль*К) або Дж/(моль*градус) в залежності від того, у чому вимірюється температура в кельвінах або градусах.

В хімії

Що таке, приміром, ентропія в хімії? Це поняття застосовується в хімічній термодинаміці. Тут важливо зміна цієї величини. Якщо воно позитивне, то і система стає менш впорядкованою. Знати це важливо для визначення напрямку хімічних реакцій і зміни хімічного рівноваги. Цей термін пов’язаний з поняттям ентальпії — енергії, яку можна перетворити в тепло при певному постійному тиску.

По зміні невпорядкованості можна визначити, може реакція протікати мимовільно. Цього не можна зробити тільки за зміною енергії, так як існують і реакції, що протікають з поглинанням тепла і реакції, що протікають з його виділенням. Відповідно до другого початку термодинаміки, стан з найбільшою невпорядкованістю — це найбільш стійкий стан замкнутої системи. Також будь-яка замкнута система прагне до найменш впорядкованого стану. Тому при мимовільних процесах безлад зростає.

У теорії інформації

Інформаційна ентропія характеризує непередбачуваність якої-небудь системи. Наприклад, це може бути ймовірність появи якогось символу алфавіту в тексті. При цьому ця функція дорівнює кількості інформації, яке припадає на один символ. Клод Шеннон — вчений, який увів цей термін у теорії інформації, — навіть спочатку хотів називати цю величину інформацією.

Шеннон припустив, що, збільшуючи кількість інформації, ми зменшуємо невизначеність. Впорядковуючи систему, ми зменшуємо невизначеність.

Важливо! Чим більш передбачувано якась подія, тим воно менш інформативно, і тим менше безлад.

За допомогою цієї невизначеності можна передбачати події, наприклад, результат якогось експерименту. Для цього події ділять на окремі частини і вважають невизначеність для них.

Інформаційна ентропія пов’язана з кількістю доступних станів. Чим це число більше, тим вона більша. Наприклад, якщо ми будемо грати у шахи за правилами, для шахової дошки ця величина буде меншою, ніж якщо переставляти фігури хаотично. Невизначеність для монетки, яка може впасти тільки на одну або іншу сторону, не менше, ніж у гральної кістки з 6 гранями, а у кості з 20 гранями ця величина ще більше.

Існує також ентропія мови. Це поняття позначає кількість інформації на одиницю тексту на цій мові (один символ) і вимірюється в бітах на букву. Для різних мов вона різна.

У мові одні символи з’являються частіше, інші рідше, також є певні часто зустрічаються поєднання символів. Проводячи аналіз ймовірності появи того чи іншого символу, можна декодувати зашифрований текст. Інформаційна невпорядкованість також допомагає встановлювати необхідну пропускну здатність каналів для передачі зашифрованих повідомлень.

Для аналізу даних у різних сферах, від медицини до соціології, використовується інформаційно-ентропійний аналіз. Простими словами можна сказати, що, аналізуючи збільшення або зменшення безладу, можна встановити зв’язки між явищами.

Поняття «інформаційна ентропія» використовується також в математичній статистиці і статистичної фізики. Ці науки мають справу з імовірністю різних станів і використовують методи теорії ймовірності.

В економіці

В економіці використовується поняття «коефіцієнт ентропії». Він пов’язаний з концентрацією продавців на ринку. Чим більше концентрація, тим менше цей коефіцієнт, або індекс. Він залежить від розподілу часток між фірмами на ринку, і чим більше різниця у величині цих часток, тим більше і коефіцієнт ентропії.

Якщо поділити цей індекс на кількість фірм на ринку, вийде відносний показник. Він позначається буквою Е. Його значення знаходиться між 0 і 1. Значення Е=0 відповідає монополії, а Е=1 — досконалої конкуренції.

Що каже вікіпедія

У вікіпедії можна знайти різні визначення цього поняття. Загальне — це міра незворотного розсіювання енергії, відхилення реального процесу від ідеального. Також у вікіпедії можна знайти:

  • статті про цей термін у класичній термодинаміці;
  • у біологічній екології;
  • ентропію Всесвіту;
  • мови;
  • диференціальну;
  • топологічну;
  • інформаційну.

Корисне відео: уявлення про ентропії

Висновок

Термін «ентропія» вперше був використаний в термодинаміці Рудольфом Клаузиусом. З фізики він прийшов і в інші науки. Це поняття позначає невпорядкованість, хаотичність, непередбачуваність і тісно пов’язане з ймовірністю. Ентропійний аналіз допомагає вивчати дані і знаходити зв’язки між явищами, визначати напрями фізичних і хімічних процесів.