Знаймо

Додати знання

приховати рекламу

Цей текст може містити помилки.

Ентропія


Thermodynamics navigation image.svg

План:


Введення

Ентропія (від греч. ἐντροπία - Поворот, перетворення) в природничих науках - міра безладу системи, що складається з багатьох елементів. Зокрема, в статистичної фізики - міра ймовірності здійснення будь-якого макроскопічного стану; в теорії інформації - міра невизначеності будь-якого досвіду (випробування), який може мати різні результати, а значить і кількість інформації; в історичній науці, для експлікації феномена альтернативності історії (інваріантності та варіативності історичного процесу).

Ентропія в інформатиці - ступінь неповноти, невизначеності знань.

Поняття ентропії було вперше введено Клаузиусом в термодинаміці в 1865 році для визначення міри незворотного розсіювання енергії, заходи відхилення реального процесу від ідеального. Певна як сума наведених теплот, вона є функцією стану і залишається постійною при оборотних процесах, тоді як в необоротних - її зміна завжди позитивно.

dS = \ frac {\ delta Q} {T} ,

де d S - Приріст ентропії; δ Q - Мінімальна теплота підведена до системи; T - абсолютна температура процесу;


1. Вживання в різних дисциплінах

  • Термодинамічна ентропія - термодинамічна функція, що характеризує заходи невпорядкованості системи, тобто неоднорідності розташування руху її частинок термодинамічної системи.
  • Інформаційна ентропія - міра невизначеності джерела повідомлень, обумовлена ​​ймовірності появи тих чи інших символів при їх передачі.
  • Диференціальна ентропія - ентропія для безперервних розподілів
  • Ентропія динамічної системи - в теорії динамічних систем міра хаотичності в поведінці траєкторій системи.
  • Ентропія відображення - частина інформації про дискретну системі, яка не відтворюється при відображенні системи через сукупність своїх частин.
  • Ентропія в теорії управління - міра невизначеності стану або поведінки системи в даних умовах.

Ентропія - функція стану системи, що дорівнює в рівноважному процесі кількості теплоти, повідомленої системі або відведеної від системи, віднесеному до термодинамічної температури системи.

Ентропія - функція, що встановлює зв'язок між макро-та мікро-станами; єдина функція у фізиці, яка показує спрямованість процесів. Ентропія - функція стану системи, яка не залежить від переходу з одного стану в інший, а залежить тільки від початкового і кінцевого положення системи.


Література

  • Шамбадаль П. Розвиток і додаток поняття ентропії. - М.: Наука, 1967. - 280 с.
  • Мартін Н., Інгленд Дж. Математична теорія ентропії. М.: Мир, 1988. 350С.
  • Хинчин А. Я. Поняття ентропії в теорії ймовірностей / / Успіхи математичних наук. 1953. Т. 8. В. 3. С. 2-20.
  • Гленсдорф П., Пригожин І. Термодинамічна теорія структури, стійкості і флуктуацій. М.: 1973.
  • Пригожин І., Стенгерс І. Порядок з хаосу. Новий діалог людини з природою. М.: 1986.
  • Брюллюен Л. Наука і теорія інформації. М.: 1960.
  • Вінер Н. Кібернетика і суспільство. М.: 1958.
  • Вінер Н. Кібернетика або управління та зв'язок у тварині і машині. М.: 1968.
  • Де Гроот С., Мазур П. Нерівноважна термодинаміка. М.: 1964.
  • Зоммерфельд А. Термодинаміка і статистична фізика. М.: 1955.
  • Петрушенко Л. А. Саморух матерії у світлі кібернетики. М.: 1974.
  • Ешбі У. Р. Введення в кібернетику. М.: 1965.
  • Яглом А. М., Яглом І. М. Ймовірність та інформація. М.: 1973.
  • Волькенштейн М. В. Ентропія та інформація. - М.: Наука, 1986. - 192 с.

Цей текст може містити помилки.

Схожі роботи | скачати

Схожі роботи:
Термодинамічна ентропія
Інформаційна ентропія
© Усі права захищені
написати до нас
Рейтинг@Mail.ru