Информационные математические основы

Автор работы: Пользователь скрыл имя, 26 Февраля 2014 в 20:10, реферат

Краткое описание

Теория вероятности возникла как наука из убеждения, что в основе массовых случайных событий лежат детерминированные закономерности. Теория вероятности изучает данные закономерности. Испытанием в теории вероятностей называется опыт (эксперимент), который может быть многократно повторен при фиксированной совокупности условий S. Событием называется исход испытания. События делятся на достоверные, невозможные, случайные. Знание закономерностей, которым подчинены массовые случайные события, позволяет прогнозировать, когда эти события наступят. Целью работы является изучение и усвоение основных понятий и аксиомы теории вероятности, закон больших чисел, случайные процессы и выборки, элементы теории массового обслуживания.

Прикрепленные файлы: 1 файл

Тема 3.doc

— 147.00 Кб (Скачать документ)

Увеличение (уменьшение) меры Шеннона свидетельствует об уменьшении (увеличении) энтропии (организованности) системы. При этом энтропия может являться мерой дезорганизации систем от полного хаоса (S=Smax) и полной информационной неопределенности (I=Imin) до полного порядка (S=Smin) и полной информационной определённости (I=Imax) в системе.

Термодинамическая мера. Информационно-термодинамический подход связывает величину энтропии системы с недостатком информации о внутренней структуре системы (не восполняемым принципиально, а не просто нерегистрируемым).

При этом число состояний определяет, по существу, степень неполноты наших сведений о системе.

Пусть дана термодинамическая система (процесс) S, а Н0, Н1 – термодинамические энтропии системы S в начальном (равновесном) и конечном состояниях термодинамического процесса, соответственно. Тогда термодинамическая мера информации (негэнтропия) определяется формулой:

Н(Н0,Н1)=Н0 - Н1.

Эта формула универсальна для любых термодинамических систем. Уменьшение Н(Н0,Н1) свидетельствует о приближении термодинамической системы S к состоянию статического равновесия (при данных доступных ей ресурсах), а увеличение – об удалении.

Термодинамическая мера (энтропия) применима к системам, находящимся в тепловом равновесии. Для систем, далеких от теплового равновесия, например, живых биологических систем, мера-энтропия - менее подходящая.

Энергоинформационная (квантово-механическая) мера. Энергия (ресурс) и информация (структура) - две фундаментальные характеристики систем реального мира, связывающие их вещественные, пространственные, временные характеристики. Если А - именованное множество с носителем так называемого «энергетического происхождения», а В - именованное множество с носителем «информационного происхождения», то можно определить энергоинформационную меру f: A→B, например, можно принять отношение именования для именованного множества с носителем (множеством имен) А или В.

Отношение именования должно отражать механизм взаимосвязей физико-информационных и вещественно-энергетических структур и процессов в системе.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Заключение

В работе были рассмотрены вероятность как событие, классическая вероятностная модель, аксиомы теории вероятности, закон больших чисел, случайные процессы и выборки, элементы теории массового обслуживания.

Испытанием в теории вероятностей называется опыт (эксперимент), который может быть многократно повторен при фиксированной совокупности условий S. Событием называется исход испытания.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Список литературы:

  1. http://cito-web.yspu.org/link1/metod/theory/node21.html
  2. http://mathhelpplanet.com/static.php?p=osnovnye-ponyatiya-tyeorii-veroyatnostyei
  3. http://mi.udaff.com/terver/tv.html
  4. http://www.toehelp.ru/theory/ter_ver/1_2/
  5. Гмурман В.Е. Теория вероятностей и математическая статистика. – М.: Высшая школа, 1998. - 479с.
  6. Калинина В.Н., Панкин В.Ф. Математическая статистика. - М.: Высшая школа, 1998. - 336с.
  7. Чистяков В.П. Курс теории вероятностей. – М.: Агар, 1996. - 256 с.

Информация о работе Информационные математические основы