Предмет работы: энтропия и информация. Существующему давно понятию информация, был придан математически точный смысл К.Шенноном. Вероятностное толкование понятия энтропии было дано в статистической физике Людвигом Больцманом. Энтропия - мера недостатка информации о микросостоянии статической системы. Статистический смысл понятия энтропии. Понятие об информации. С тех пор энтропия многократно фигурировала в знаменитых спорах. Информация не всегда связана с компьютером. В статистической термодинамике энтропия так же характеризует меру беспорядка и хаоса. Информационный поток -достаточно сильный раздражитель.