Энтропия - мера необратимого рассеивания энергии, меры отклонения реального процесса от идеального.

Энтропия в теории информации -- мера неопределенности какого-либо опыта (испытания), который может иметь разные исходы.

На бытовом уровне это значит, что во времена бешеного роста энтропиии вам могут легко и весьма убедительно доказать, что белое есть чёрное, а дважды два не четыре, а пять, шесть и т.д.

http://www.kmechte.ru/poslanie.htm