Загрузка страницы

Энтропия в естествознании, теории информации и математике // Владимир Тихомиров

Энтропия — мера неопределённости, мера хаоса. В естественных науках это мера беспорядка системы, состоящей из многих элементов; в теории информации — мера неопределённости какого-либо опыта, процесса или испытания, которые могут иметь разные исходы (а значит, мера количества информации); в математике — мера сложности объекта или процесса.
Понятие энтропии было впервые введено в 1865 году Р. Клаузиусом в термодинамике, К. Шенноном в теории информации в 1949 г., в теории стохастичпеских процессов Колмогоровым, Гельфандом и Яглом в 1956 г., в функциональном анализе и теории динамических систем Колмогоровым в 1956–1958 гг.
Между мирами полной детерминированности, изучаемой классическим анализом и миром хаоса, изучаемым теорией вероятностей, ныне перекидывается мост, который связан с понятием энтропии.

Тихомиров Владимир Михайлович, профессор, доктор физико-математических наук.

Летняя школа «Современная математика», г. Дубна
25 июля 2013 г.

https://forany.xyz/a-598

Видео Энтропия в естествознании, теории информации и математике // Владимир Тихомиров канала Научный клуб
Показать
Комментарии отсутствуют
Введите заголовок:

Введите адрес ссылки:

Введите адрес видео с YouTube:

Зарегистрируйтесь или войдите с
Информация о видео
21 мая 2017 г. 2:25:54
01:12:21
Яндекс.Метрика