Шпаргалка по "Теорія ймовірності"

Автор работы: Пользователь скрыл имя, 21 Мая 2013 в 00:56, шпаргалка

Краткое описание

Работа содержит ответы на вопросы по дисциплине "Теорія ймовірності".

Прикрепленные файлы: 1 файл

Теорія імовірності.docx

— 674.49 Кб (Скачать документ)

Ексцесом варіаційного ряду називається  число, яке дорівнює різниці між  відношенням центрального емпіричного  моменту 4-го порядку до середнього квадратичного 4-го степеня і віднявши 3.

Ексцес є показником крутості варіаційного ряду в порівнянні із звичайним розподілом. Якщо Е>0, то полігон варіаційного ряду має більш круту вершину  в порівнянні з нормальним розподілом, якщо E<0, то вершина є більш пологою.

 

46. Статистичні оцінки  та вимоги до них. Точкові  та інтервальні оцінки параметрів  розподілу генеральної сукупності. Надійність оцінки.

Статистичні оцінки, яку дістали  на основі обробки вибірки про  ознаку генеральної сукупності, завжди міститиме певні похибки, оскільки вибірка становить лише незначну частину від неї (n < N), тобто обсяг вибірки значно менший від обсягу генеральної сукупності.Тому слід організувати вибірку так, щоб ця інформація була найбільш повною (вибірка має бути репрезентативною) і забезпечувала з найбільшим ступенем довіри про параметри генеральної сукупності або закон розподілу її ознаки. Параметри генеральної сукупності M(xi)=Xг, Dг, δг, Mo, rxy є величинами сталими, але їх числове значення невідоме. Ці параметри оцінюються параметрами вибірки: які дістають при обробці вибірки. Вони є величинами непередбачуваними, тобто випадковими.

Тут через θ позначено оцінювальний параметр генеральної сукупності, а  через  — його статистичну оцінку, яку називають ще статистикою. При цьому θ = const, а — випадкова величина, що має певний закон розподілу ймовірностей. Зауважимо, що до реалізації вибірки кожну її варіанту розглядають як випадкову величину, що має закон розподілу ймовірностей ознаки генеральної сукупності з відповідними числовими характеристиками:M(xi)=Xг=M(x), D(xi)=Dг, δ(xi)=δг

Статистична оцінка яка визначається одним числом, точкою, називається точковою. Беручи до уваги, що є випадковою величиною, точкова статистична оцінка може бути зміщеною і незміщеною: коли математичне сподівання цієї оцінки точно дорівнює оцінювальному параметру θ, а саме: (1) то називається незміщеною; в противному разі, тобто коли точкова статистична оцінка називається зміщеною відносно параметра генеральної сукупності θ. Різниця (3) називається зміщенням статистичної оцінки Оцінювальний параметр може мати кілька точкових незміщених статистичних оцінок Точкова статистична оцінка називається ефективною, коли при заданому обсязі вибірки вона має мінімальну дисперсію. Отже, оцінка буде незміщеною й ефективною.

Точкова статистична оцінка називається  ґрунтовною, якщо у разі необмеженого збільшення обсягу вибірки  наближається до оцінювального параметра θ, а саме:   Точкові статистичні оцінки є випадковими величинами, а тому наближена заміна θ на часто призводить до істотних похибок, особливо коли обсяг вибірки малий. У цьому разі застосовують інтервальні статистичні оцінки. Статистична оцінка, що визначається двома числами, кінцями інтервалів, називається інтервальною.  Різниця між статистичною оцінкою та її оцінювальним параметром θ, взята за абсолютним значенням, називається точністю оцінки, а саме: (04) де δ є точністю оцінки.  Оскільки є випадковою величиною, то і δ буде випадковою, тому нерівність (04) справджуватиметься з певною ймовірністю. Імовірність, з якою береться нерівність (04), тобто , (05) називають надійністю. Рівність (05) можна записати так: . Інтервал ,

 що покриває оцінюваний  параметр θ генеральної сукупності з заданою надійністю g, називають довірчим

Надійністю (або надійною ймовірністю) оцінки за називається ймовірність ,

з якою здійснюється нерівність (1):   .                                                                         

Замінивши нерівність (1) тотожною подвійною  нерівністю

     , отримаємо

     ,  (3)

Тобто ймовірність того, що інтервал   (4)

заключає в собі невідомий параметр , дорівнює .

Такий інтервал називають надійним інтервалом (інтервалом довіри).

    На практиці надійність оцінки  звичайно задається наперед. Найчастіше  задають 

 

47. Означення довірчого інтервалу.  Довірчий інтервал для оцінки  математичного сподівання нормального  розподілу

Інтервал , що покриває оцінюваний параметр θ генеральної сукупності з заданою надійністю g, називають довірчим. Кінці довірчого інтервалу є випадковими величинами

Надійні інтервали для оцінки математичного  сподівання

нормального розподілу при відомому .

    Нехай відомо, що випадкова величина  Х розподілена нормально і  - її середнє квадратичне відхилення. Потрібно побудувати інтервальну оцінку для невідомого математичного сподівання . Точковою оцінкою для математичного сподівання є вибіркове середнє . (5)

Середнє вибіркове  є різним для окремо взятих вибірок з генеральної сукупності, отже його можна розглядати як випадкову величину , а значення як однаково розподілені незалежні випадкові величини (). Оскільки значення незалежні, то

,   ,

    Вважаємо, що  - відома величина.

    Нерівність                                               (6)

повинна виконуватись із заданою ймовірністю     

 або, замінивши нерівність (6) еквівалентною нерівністю, отримаємо

                                            ,          (7)

Пригадаємо, що для нормально розподіленої випадкової величини Х з параметрами  а і  ймовірність попадання в інтервал визначається за формулою

де  - функція Лапласа (табульована).

Тоді співвідношення (7) можна переписати так .

Позначивши , маємо рівняння ;      (8)

     Таким чином, остаточно отримаємо  

Тобто побудований надійний інтервал (9)

заключає в собі невідомий параметр а (математичне сподівання) з ймовірністю  . Число при заданому значенні знаходимо із таблиці значень функції Лапласа.

   Висновки:

1) при збільшенні обсягу  вибірки число зменшується, тобто точність оцінки

    збільшується;

2) зростання надійності  веде до збільшення , отже, до зростання , або до зменшення точності.

 

48. Статистичні гіпотези  та їх різновиди. Помилки першого  та другого роду

Статистичними називають гіпотези про вигляд розподілу генеральної  сукупності або про параметри  відомих розподілів.

Наприклад, статистичними будуть гіпотези: генеральна сукупність розподілена  за нормальним законом; дисперсія двох сукупностей, розподілених за законом  Пуассона, рівні між собою.

Гіпотезу, що підлягає перевірці, називають  основною. Оскільки ця гіпотеза припускає  відсутність систематичних розбіжностей (нульові розбіжності) між невідомим  параметром генеральної сукупності і величиною, що одержана внаслідок  обробки вибірки, то її називають  нульовою гіпотезою і позначають Н0. Зміст нульової гіпотези записується так:;;. Кожній нульовій гіпотезі можна протиставити кілька альтернативних (конкуруючих) гіпотез, які позначають символом Нa, що заперечують твердження нульової. Так, наприклад, нульова гіпотеза стверджує: , а альтернативна гіпотеза — , тобто заперечує твердження нульової.

Гіпотезу називають простою, якщо вона містить лише одне припущення, складною, якщо вона складається із скінченної чи нескінченної кількості  простих гіпотез.

Якщо за висновком буде відкинута  правильна гіпотеза, то кажуть, що це помилка першого роду. Якщо за висновком  буде прийнята неправильна гіпотеза, то кажуть що це помилка другого  роду.

 

49. Статистичний критерій. Потужність критерію. Рівень значущості  критерію

Статистичним критерієм називають  величину К, розподіл якої відомий і  яка застосовується для перевірки  основної гіпотези.

Потужністю критерію називають  імовірність належності критерію критичній  області при умові, що правильна  альтернативна гіпотеза. Це є імовірність  того, що основна гіпотеза буде відхилена, якщо альтернативна гіпотеза є правильна.

Щоб знайти однобічну критичну область, треба знайти критичну точку Ккр. Для цього задають достатньо  малу ймовірність – рівень значущості, а потім шукають критичну точку  з врахуванням вимоги Р(К>kкр)=а  у випадку правобічної критичної  області або Р(К<kкр)=а у випадку  лівобічної. У випадку двобічної  Р(К>k1)+ Р(К<k2)=а

 

50. Критична область.  Області прийняття гіпотез. Алгоритм  перевірки статистичної гіпотези

Множину W всіх можливих значень статистичного критерію K можна поділити на дві підмножини А і , які не перетинаються.. Сукупність значень статистичного критерію K Î А, за яких нульова гіпотеза не відхиляється, називають областю прийняття нульової гіпотези. Сукупність значень статистичного критерію K Î , за яких нульова гіпотеза не приймається, називають критичною областю. Отже, А — область прийняття Н0, — критична область, де Н0 відхиляється. Точку або кілька точок, що поділяють множину W на підмножини А і , називають критичними і позначають через Kкр. Існують три види критичних областей: Якщо при K < Kкр нульова гіпотеза відхиляється, то в цьому разі ми маємо лівобічну критичну область, яку умовно можна зобразити (рис. 1).

 

Якщо при  нульова гіпотеза відхиляється, то в цьому разі маємо правобічну критичнуобласть

Якщо ж при  і при нульова гіпотеза відхиляється, то маємо двобічну критичнуобласть .

Лівобічна і правобічна області  визначаються однією критичною точкою, двобічна критична область — двома  критичними точками, симетричними відносно нуля

Для перевірки правильності статистичної гіпотези Но необхідно:

  1. визначити гіпотезу Н1, альтернативну до гіпотези Но
  2. обрати статистичну характеристику перевірки
  3. визначити допустиму імовірність похибки першого роду, тобто рівень значущості а
  4. знайти за відповідною таблицею критичну область для обраної статистичної характеристики.

 

51. Критерій узгодження  Пірсона. Алгоритм використання  критерію Пірсона

Критерій узгодженості Пірсона  є випадковою величиною, що має розподіл , який визначається за формулою і має k = q – m – 1 ступенів свободи, де q — число часткових інтервалів інтервального статистичного розподілу вибірки; m — число параметрів, якими визначається закон розподілу ймовірностей генеральної сукупності згідно з нульовою гіпотезою. Так, наприклад, для закону Пуассона, який характеризується одним параметром l, m = 1, для нормального закону m = 2, оскільки цей закон визначається двома параметрами i s. Якщо (усі емпіричні частоти збігаються з теоретичними), то , у противному разі . Визначивши при заданому рівні значущості a і числу ступенів свободи критичну точку , за таблицею (додаток 8) будується правобічна критична область. Якщо виявиться, що спостережуване значення критерію , то Н0 про закон розподілу ознаки генеральної сукупності відхиляється. У противному разі Н0 приймається.

 

52. Критерій узгодження  Колмогорова

У статистиці критерій узгодженості Колмогорова (також відомий, як критерій узгодженості Колмогорова — Смирнова) використовується для того, щоб визначити, чи підкоряються два емпіричних розподіли одному закону, або визначити, чи підкоряється одержаний розподіл деякій моделі.

Нехай X=(X1,..., Xn) — вибірка з розподілу . Перевіряється проста гіпотеза проти складної альтернативи . 
У цьому випадку, коли розподіл має неперервну функцію розподілу F1, можна користуватися критерієм Колмогорова. 
Хай: . Якщо гіпотеза H1 невірна, то Xi мають якийсь розподіл , відмінний від . 
за теоремою Глівенко — Кантеллі: для будь-якого y коли . 
Оскільки , то знайдеться таке y0 що | F2(y0) − F1(y0) | > 0. 
Але . 
Домножаючи на отримаємо при , що . 
Нехай випадкова величина η має розподіл з функцією розподілу Колмогорова: , t>o 
Цей розподіл табульований, так що по заданому ε легко знайти C таке, що ε=P( ) Критерій Колмогорова виглядає так: .

 

53. Метод моментів та  метод максимальної правдоподібності  знаходження точкових оцінок

Метод моментів знаходження оцінок в математичній статистиці — це спосіб побудови оцінок, заснований на порівнянні теоретичних і вибіркових моментів.Коротко, метод моментів описується так: "Ми маємо певну вибірку, і припускаємо що вона задається певним розподілом з параметрами. Ми обчислюємо скільки моментів цього розподілу скільки параметрів, і прирівнюємо їх до відповідних моментів вибірки. Так як моменти розподілу є функціями від параметрів, то отримаємо систему рівнянь відносно параметрів, і з неї отримуємо результат."

Алгоритм:

  1. обчислюємо n теоретичних початкових моментів
  2. за елементами вибірки х1, х2,…хn обчислюємо m відповідних емпіричних моментів
  3. прирівнюємо теоретичні і відповідні їм емпіричні моменти і отримуємо систему рівнянь відносно компонент оцінюваного параметра

 

  1. розв`язуючи отриману систему рівнянь точно чи наближено знаходимо  потрібні оцінки.

Суть методу максимальної правдоподібності полягає в тому, що ми будуємо  функцію правдоподібності , яка залежить від вибірки і невідомих параметрів.

Якщо розподіл компонент є абсолютно  неперервним і щільність кожної компоненти дорівнює , то функція правдоподібності записується так

,

якщо  ж розподіл компонент є дискретним і , то

Информация о работе Шпаргалка по "Теорія ймовірності"