Объясните гуманитарию, что означает понятие "энтропия"?

Ответить
Ответить
Комментировать
0
Подписаться
2
6 ответов
Поделиться

Я понимаю так (если понимаю неправильно, пусть знающие люди меня поправят), что, в общем смысле, энтропия – это степень упорядоченности какой-либо системы, мера беспорядка, хаоса. И чем выше беспорядок, тем, соответственно, выше энтропия. И наоборот. Понятие энтропии используется во многих науках, но чаще, как правило, связывается со вторым законом термодинамики, который гласит, что в изолированной системе энтропия не может уменьшаться. Если говорить совсем простыми словами, то система – это нечто организованное, то, что имеет свою структуру, а изолированной можно назвать систему, на которую не оказывается воздействие извне (хотя совсем уж независимую систему найти трудно, так как все предметы и объекты друг с другом взаимодействуют, но это детали). Так вот, оставленное на солнце яблоко со временем сгниет, человек постареет. Энтропия всегда растет. Вселенная стремится к беспорядку. И именно из-за действия энтропии, как предполагается, время не может идти назад, хотя в физике не существует точного закона, постулирующего, что время обязательно должно идти только вперед. Если время пойдет назад, то все явления и вещи начнут сами по себе магическим образом упорядочиваться: разлетевшиеся бумаги сложатся ровной стопочкой, разбитый стакан соберется в целый без единой трещины, люди начнут молодеть. Повернуть время вспять значит упорядочить систему, то есть нарушить второй закон термодинамики. Нет, разбитый стакан, конечно, можно склеить в целый, и дома можно сделать уборку, однако при этом придется затратить какую-то часть энергии, и никакого нарушения в итоге не выйдет. Склеивание стакана и уборка дома – это только видимость уменьшения энтропии, так как даже аккуратно разложенные по местам вещи имеют свойство со временем разлагаться, так что от вездесущей энтропии нам не уйти.

Такие дела.

8
0
Прокомментировать

Энтропия, вообще говоря, относится не только к физике, но вообще любой математической конструкции, где для описания общих свойств системы мы пренебрегаем параметрами отдельных её частей.

Это, например, статистическая физика, где для описания системы (газа/плазмы), мы отказываемся от идеи смотреть на конкретные параметры (координаты, скорости) отдельных частиц, а вводим общие свойства системы, такие как температура или давление.

Энтропия, является такой же коллективной характеристикой статистической системы, в различных теориях она определяется по-разному. Но в целом энтропия показывает насколько система хаотична. Чем больше энтропия, тем, следовательно, больше число теоретических состояний, в которых может находиться система.

H-теорема говорит о том, что энтропия (в замкнутых системах) в целом должна возрастать, т.е. с эволюцией число возможных состояний системы растёт, и описание системы с помощью слежения за отдельными её элементами всё усложняется.

У энтропии замкнутых систем есть максимум (так как есть максимум у числа состояний), и это состояние с максимальной энтропией (хаотичностью) называется равновесным. Именно для этого состояния в термодинамике вводятся понятия температуры, давления и т.д.

P.S. Важно ещё отметить, что максимальная энтропия (т.е. максимальная хаотичность) не означает, что систему всё сложнее и сложнее описать. Напротив, сложнее описать именно переходные состояния, между минимально хаотичным (например, ламинарное течение) и максимально хаотичным (например, полностью турбулентное течение). В максимально хаотичном состоянии система хорошо описывается статистическими общими параметрами.

6
-2
Прокомментировать

Энтропия – это эвфемизм для более простого и понятного: все рушится. Или на научном языке: «любая упорядоченная система со временем распадается». – Он присел и быстро соорудил замок из песка. – Только что я упорядочил миллионы песчинок, придав им форму замка. А теперь посмотрим, как с ним поступит природа. – Через секунду набежала волна и смыла замок. – Вот так. Природа нашла мои организованные песчинки и дезорганизовала их – рассеяла по пляжу. Так работает закон возрастания энтропии. В природе песчаные замки никогда не возникают сами собой, сами собой они только исчезают.

Природа пользуется упорядоченными структурами, чтобы быстрее достичь беспорядка. Упорядоченные структуры увеличивают беспорядок системы и тем самым увеличивают энтропию.

Происхождение. Дэн Браун

2
0

Так вот почему люди свинячат везде и всюду...?

+1
Ответить

Коротко: фарш невозможно прокрутить назад.

+2
Ответить
Прокомментировать

Энтропия - мера сложности системы. В этом суть понятия энтропии. В большинстве приложений эта мера должна являться аддитивной (т.е. такой, чтобы энтропия совокупности двух систем равнялась сумме их энтропий). Кроме этого, налагают ещё некоторые условия (неотрицательность и т.д.). Из этих требований следует, что энтропия равна логарифму числа доступных состояний системы. Именно так определена энтропия Больцмана. Существует более сложное выражение для той же самой по сути величины, называемое энтропией Больцмана-Гиббса или энтропией Шеннона. Рассмотренное определение - это статистическое определение энтропии. Оно используется в статистической физике, а также в математике: теории информации и математической статистике.

В термодинамике энтропия является характеристикой макроскопического состояния системы. Она не имеет наглядной интерпретации (является абстрактной), но оказалось удобным ввести эту характеристику для построения математического аппарата термодинамики. Тем не менее, термодинамическая энтропия полностью соответствует статистической энтропии (это впервые установил Больцман), поэтому для этих разных определений используют одно название "энтропия".

1
0
Прокомментировать

В тернодинамике служит мерой необратимого рассеяния  энергии , в статистической физике- мерой порядка, организованности системы. Чем меньше энтропия, тем более упорядоченна система; с течением времени система постепенно разрушается , становится неорганизованным хаосом с высокой энтропией

0
0
Прокомментировать
Читать ещё 1 ответ
Ответить
Читайте также на Яндекс.Кью
Читайте также на Яндекс.Кью