Применение методов теории вероятностей в задачах электроэнергетики

Автор работы: Пользователь скрыл имя, 07 Июня 2012 в 10:54, реферат

Краткое описание

Теория вероятностей является одним из классических разделов математики. Она имеет длительную историю. Основы этого раздела науки были заложены великими математиками. Назову, например, Ферма, Бернулли, Паскаля. Позднее развитие теории вероятностей определились в работах многих ученых. Большой вклад в теорию вероятностей внесли ученые нашей страны: П.Л.Чебышев, А.М.Ляпунов, А.А.Марков, А.Н.Колмогоров.

Содержание

Случайное событие, частота вероятность 2
Случайная величина 4
Случайный процесс 5
Статистика в электроэнергетике 10
Свойства математического ожидания 12
Дисперсия случайной величины 13
Стандартное отклонение 13
Корреляция 14
Понятие о математической статистике 18

Прикрепленные файлы: 1 файл

ргр1.doc

— 1.95 Мб (Скачать документ)

2) Постоянный  множитель можно выносить за  знак математического ожидания.

           

3) Математическое  ожидание произведения двух независимых случайных величин равно произведению их математических ожиданий.

           

 Это свойство  справедливо для произвольного  числа случайных величин.           

4) Математическое  ожидание суммы двух случайных  величин равно сумме математических ожиданий слагаемых.

        

Это свойство также  справедливо для произвольного  числа случайных величин.        

Пусть производится п независимых испытаний, вероятность появления события А в которых равна р.           

 Теорема. Математическое ожидание М(Х) числа появления события А в п независимых испытаниях равно произведению числа испытаний на вероятность появления события в каждом испытании.

           

 Однако, математическое  ожидание не может полностью  характеризовать случайный процесс. Кроме математического ожидания надо ввести величину, которая характеризует отклонение значений случайной величины от математического ожидания.           

 Это отклонение  равно разности между случайной  величиной и ее математическим  ожиданием. При этом математическое ожидание отклонения равно нулю. Это объясняется тем, что одни возможные отклонения положительны, другие отрицательны, и в результате их взаимного погашения получается ноль.

Дисперсия случайной величины — мера разброса данной случайной величины, то есть её отклонения от математического ожидания. Обозначается D[X] в русской литературе и (англ. variance) в зарубежной. В статистике часто употребляется обозначение или . Квадратный корень из дисперсии, равный , называется среднеквадратичным отклонением, стандартным отклонением или стандартным разбросом. Стандартное отклонение измеряется в тех же единицах, что и сама случайная величина, а дисперсия измеряется в квадратах этой единицы измерения.

Из неравенства Чебышёва следует, что случайная величина удаляется от её математического ожидания на более чем k стандартных отклонений с вероятностью менее 1/k². Так, например, как минимум в 75% случаев случайная величина удалена от её среднего не более чем на два стандартных отклонения, а в примерно 89% — не более чем на три.

Пусть  — случайная величина, определённая на некотором вероятностном пространстве. Тогда

где символ M обозначает математическое ожидание

Стандартное отклонение — классический индикатор изменчивости из описательной статистики.

  Стандартное отклонение, среднеквадратичное отклонение, СКО, выборочное стандартное отклонение (англ. standard deviation, STD, STDev) — очень распространенный показатель рассеяния в описательной статистике. Но, т.к. технический анализ сродни статистике, данный показатель можно (и нужно) использовать в техническом анализе для обнаружения степени рассеяния цены анализируемого инструмента во времени. Обозначается греческим символом Сигма “σ”.

Спасибо Карлам Гауссу и Пирсону за то, что мы имеем возможность пользоваться стандартным отклонением.

Используя стандартное отклонение в техническом анализе, мы превращаем этот “показатель рассеяния” в “индикатор волатильности“, сохраняя смысл, но меняя термины. Что представляет собой стандартное отклонение

  Понимание сути стандартного отклонения возможно с пониманием азов описательной статистики. К примеру, мы имеем 2 выборки, у которых среднее арифметическое одинаково и равно 3. Казалось бы, одинаковое среднее делает эти две выборки одинаковыми. Но нет! Давайте рассмотрим возможные варианты данных для этих двух выборок:

1, 2, 3, 4, 5

-235, -103,  3, 100, 250

  Очевидно, что разброс (или рассеяние, или, в нашем случае, волатильность) гораздо больше во второй выборке. Следовательно, несмотря на то, что у этих двух выборок одинаковое среднее (равное 3), они совершенно разные в силу того, что у второй выборки данные беспорядочно и сильно рассеяны вокруг центра, а у первой — сконцентрированы около центра и упорядочены.

Но если нам  надо быстро дать понять о таком явлении, мы не будет объяснять, как в абзаце выше, а просто скажем, что у второй выборки очень большое стандартное отклонение, а у первой — очень маленькое. Так, у второй выборки стандартное отклонение равно 186, а у первой оно равно 1,6. Разница существенная. 

Корреляция — статистическая взаимосвязь двух или нескольких случайных величин (либо величин, которые можно с некоторой допустимой степенью точности считать таковыми). При этом, изменения одной или нескольких из этих величин приводят к систематическому изменению другой или других величин. Математической мерой корреляции двух случайных величин служит коэффициент корреляции.

Некоторые виды коэффициентов корреляции могут быть положительными или отрицательными (возможна также ситуация отсутствия статистической взаимосвязи — например, для независимых случайных величин). Если предполагается, что на значениях переменных задано отношение строгого порядка, то отрицательная корреляция — корреляция, при которой увеличение одной переменной связано с уменьшением другой переменной, при этом коэффициент корреляции может быть отрицательным; положительная корреляция в таких условиях — корреляция, при которой увеличение одной переменной связано с увеличением другой переменной, при этом коэффициент корреляции может быть положительным.

Автокорреляция — статистическая взаимосвязь между случайными величинами из одного ряда, но взятых со сдвигом, например, для случайного процесса — со сдвигом по времени.

Аналогично, ρ (ε/η) и δη. Введя в рассмотрение коэффициент корреляции 

       (1-44) 

получим выражения  для м.о. случайной величины η, зависящей от величины ε;

Мx (η)  =  г (δηε) (х - а) + Ь,                 (1-45)

где а и δε—м.о. и стандартное отклонение величины ε ; b и δη—м.о. и стандартное отклонение величины η. Аналогично 

     My (ε) = r(δεη) (y – b) + a.

При r·=0 исчезнет различие между Mx(η) и M(η), а также между Μy(ε) и Μ (ε).

Следовательно, коэффициент корреляции характеризует  корреляционную зависимость между случайными величинами. Величина r изменяется от —1 до +1· При r=—1 или r = +1  корреляционная связь заменяется функциональной. Если определены м. о. и стандартное отклонение двух случайных зависимых величин η и ε, а также коэффициент корреляции, то можно найти зависимость м.о. величин η, ε от конкретных значений величин ε, η.

Для статистического  определения коэффициента корреляции между двумя случайными величинами η и ε необходимо иметь ряд наблюдении этих величин. Пусть наблюдались следующие пары одновременных значений η и ε;  y1, x1; у2, х2 ...; уn хn. Тогда для получения зависимости Mx(η) от x нужно найти а, b, δε, δη и r по следующим формулам: 

         (1-46) 
 

Пример 3-16. В течение ряда лет максимум нагрузки энергосистемы Ρ(МВт) и годовая выработка электроэнергии W (млрд. кВт·ч) имели следующие значения:

ε  Ρ    1000    1100  1220   1350                                η        W            5,6              6,6              7,0      7,8                                      

Определим коэффициент  корреляции двух случайных величин ε и η и W), для чего по формуле (1-36) найдем статистическое м.о. ε и η:

а = М*(ε)=(1000+1100+1220+1350)/4=1167,5, b=M*(η)==(5,6+6,6+7,0+7,8)/4 = 6,75.

Далее по формуле (1-37) найдем статистические дисперсии: 

 

По формуле (1-46) определим величину статистического  коэффициента корреляции; 
 

 
 
 
 
 

Запишем уравнение  регрессии Р на W (т. е. ε на η):

M*w(P)=r*(δ*ε/ δη)(W -- b) + а = 0,988(15l/0,913)(W-6,75) + 1167,5 = 67,5+163,2W. Зная ожидаемое значение W, можно определить м. о. величины Р.

 При обработке  экспериментальных и статистических материалов,

например, при  определении коэффициентов корреляции, желательно избегать случайных ошибок измерения отдельных величин. Для  этого экспериментальные зависимости  одной случайной величины от другой случайной величины подвергают расчетному сглаживанию. Одним из методов расчетного сглаживания является метод наименьших квадратов. 

Если известна экспериментальная зависимость  у от x, то можно судить о характере зависимости (линейная, параболическая и т. д.) и выбрать формулу этой зависимости в одном каком-либо виде;

у = ах+b,                            |

или

у = ах2+bх+с, или

у == αx3 + bх2 + сх + d, т. е.

y = φ(x,a,b,c,……)

где коэффициенты а, b, с, ... подлежат определению расчетным путем. Эти параметры выбираются так, чтобы сумма квадратов разностей фактически наблюденной величины у и той же величины, полученной по формуле у~·Ц1(х, а, Ь, с, ...), была наименьшей. Таким образом, критерий выбора величин а, Ь, с, ... 

L= ∑[yi  -  φ(xi,a,b,c,…….)]2 =min,

где уi  и  хi полученные экспериментально значения.

Из правила  определения минимума функции многих переменных

получим условия  минимума:

(1·47)

                                                                                                 (1-48)         

Пусть, например, выбранная зависимость является линейной, т.е. у = ах +  + в.      Тогда    dφ/da = x;   dφ/db = 1. Условия минимума

запишутся следующим  образом; 

(yi – axi – b)xi = 0;  (yi -- axi –b) = 0.

 Если применить  обозначения

то условия минимума перепишутся:

откуда можно  получить два уравнения для определения  неизвестных параметров а и b:

       (1-49)                                                                                                          

Если выбранная  зависимость параболическая, т. е.

у == φ (x) = αx'2 + bх + с, то условия минимума запишутся тремя уравнениями:

 
 

Применяя аналогичные обозначения, можно получить три уравнения для определения неизвестных параметров а, Ь и с:

 
 
 

Понятие о математической статистике

Математическая (или теоретическая) статистика опирается  на методы и понятия теории вероятностей, но решает в каком-то смысле обратные задачи.

В теории вероятностей рассматриваются случайные величины с заданным

распределением  или случайные эксперименты, свойства которых целиком известны.

Предмет теории вероятностей — свойства и взаимосвязи  этих величин (распределений).

Но часто эксперимент представляет собой черный ящик, выдающий лишь некие результаты, по которым требуется сделать вывод о свойствах самого эксперимента. Наблюдатель имеет набор числовых (или их можно сделать числовыми) результатов, полученных повторением одного и того же случайного эксперимента в одинаковых условиях.

При этом возникают, например, следующие вопросы: Если мы наблюдаем одну случайную величину — как по набору ее значений в нескольких опытах сделать как можно более точный вывод о ее распределении?

Информация о работе Применение методов теории вероятностей в задачах электроэнергетики