Показатели тесноты связи между факторами, пределы изменений

Автор работы: Пользователь скрыл имя, 10 Декабря 2013 в 16:04, реферат

Краткое описание

Линейный коэффициент парной корреляции наиболее точно характеризует тесноту связи при линейной зависимости между факторным и результативным признаками.
где sx - среднее квадратическое отклонение факторного признака;
sy - среднее квадратическое отклонение результативного признака;
- среднее из произведений значений х и у.

Прикрепленные файлы: 1 файл

показатели тесноты связи.doc

— 115.00 Кб (Скачать документ)

Показатели  тесноты связи между факторами, пределы изменений.

Важнейшей задачей корреляционно-регрессионного анализа является измерение тесноты связи между явлениями и признаками. При этом различают две группы показателей: параметрические и непараметрические.

Параметрические показатели тесноты связи.

Линейный коэффициент  парной корреляции наиболее точно характеризует тесноту связи при линейной зависимости между факторным и результативным признаками.

где sx - среднее квадратическое отклонение факторного признака;

sy - среднее квадратическое отклонение результативного признака;

- среднее из произведений  значений х и у.

Линейный  коэффициент корреляции находится и границах: -1≤.rxy ≤ 1. При этом чем ближе r к 0 тем слабее корреляция и наоборот чем ближе r к 1 или -1, тем сильнее корреляция, т.е. зависимость х и у близка к линейной. Если r в точности =1 или -1 все точки лежат на одной прямой. Если коэффициент регрессии b>0, то 0 ≤.rxy ≤ 1 и наоборот при b<0  -1≤.rxy ≤0.

Для оценки качества подбора линейной функции рассчитывается квадрат линейного коэффициента корреляции , называемый коэффициентом детерминации. Коэффициент детерминации характеризует долю дисперсии результативного признака y, объясняемую регрессией. Соответствующая величина характеризует долю дисперсии у, вызванную влиянием остальных не учтенных в модели факторов.

Теоретическое корреляционное отношение (индекс корреляции) характеризует долю общей вариации результативного признака, объясняемую на основе выбранного уравнения связи результативного и факторного признаков.

Представляет собой  корреляционное отношение, вычисленное на основании результатов выравнивания ух по некоторой линии (как прямой, так и кривой).

Величина  данного показателя находится в  границах: 0 ≤ R ≤ 1, чем ближе к 1, тем теснее связь рассматриваемых признаков, тем более надежно найденное уравнение регрессии.

В том случае, если R = 0, связи между переменными нет. Применяется условная шкала для оценки тесноты связи:

до 0,3 — слабая связь;

0,3 - 0,7 — средняя (умеренная);

0,7 - 1,0 — сильная связь. 

Индекс  множественной корреляции используется для измерения тесноты связи между результативным признаком и двумя или несколькими факторными признаками

=
.

где - остаточная дисперсия.

Значение индекса множественной  корреляции лежит в пределах от 0 до 1 и должно быть больше или равно  максимальному парному индексу  корреляции:

  
.

При линейной зависимости  коэффициент множественной корреляции можно определить через матрицу  парных коэффициентов корреляции:

=
,

где -определитель матрицы парных коэффициентов корреляции;

-определитель матрицы межфакторной  корреляции.

Частные коэффициенты (или индексы) корреляции, измеряющие влияние на у фактора хi при неизменном уровне других факторов, можно определить по формуле

или по рекуррентной формуле

Частные коэффициенты корреляции изменяются в пределах от -1 до 1.

Качество построенной модели в целом оценивает коэффициент (индекс) детерминации. Коэффициент множественной детерминации рассматривается как квадрат индекса множественной корреляции:

.

Скорректированный индекс множественной детерминации содержит поправку на число степеней свободы и рассчитывается по формуле

где n- число наблюдений; m- число факторов.

Непараметрические показатели тесноты связи (эмпирические меры тесноты связи)

Используемые показатели тесноты связи были получены исследователями, занимавшимися статистической обработкой фактических материалов. Они были получены ранее, чем открыт метод корреляции.

1. Коэффициент Фехнера.

Основан на применении первых степеней отклонений всех значений взаимосвязанных признаков от средней величины по каждому признаку и равен:

i=(Sa-Sb)/(Sa+Sb)

a - совпадение знаков отклонений;

b - несовпадение знаков отклонений;

Sa - количество совпадений знаков отклонений;

Sb - количество несовпадений знаков отклонений;

0,0 - не учитывается;

0+, 0- - не учитывается.

2. Коэффициент Спирмена (коэффициент корреляционных рангов).

Теснота связи между  двумя количественными признаками может быть измерена с помощью коэффициента корреляционных рангов. Для этого определяется ранг каждого значения признака.

Ранг - это порядковый номер элемента в ранжированном (упорядоченном) ряду признаков.

r=1-6Sdi2/n(n2-1), где

di2 - квадрат разности рангов;

di2=(Rx-Ry)2;

n - число наблюдений.

Пример:

х

y

Rx

Ry

Rx-Ry

[di]

(Rx-Ry)2

[di2]

6

20

1

1

0

0

7

21

2

2

0

0

9

22

3

3

0

0

11

23

4

5

-1

1

13

22,5

5

4

1

1

16

24

6

6

0

0

18

25,6

7

9

-2

4

19

24,7

8

7

1

1

21

25

9

8

1

1

22

27

10

10

0

0


Sdi2=8

r=1-6Sdi2/n(n2-1)=1-6*8/10(100-1)=0,952 - связь между признаками сильная.

3. Коэффициент контингенции.

Мера тесноты двух качественных признаков состоит  из двух групп. для вычисления этого  показателя строится корреляционная таблица, которая отражает связь между двумя явлениями, каждое из которых в свою очередь должно быть альтернативным, т.е. состоять из двух качественных, отличных друг от друга значений признаков.

Пример:

 

Удобрено

Урожайност

Хорошо

Плохо

Всего

Высокая

a=25

b=4

a+b=29

Низкая

c=8

d=13

c+d=21

Всего

a+c=33

b+d=17

 

 

K=(25*13-4*8)/Ö33*17*29*21=0,5 - связь прямая, достаточно тесная.

Коэффициент контингенции имеет знак "-", если ad<bc, при этом связь обратная.

4. Коэффициент ассоциации

A=(ad-bc)/(ad+bc)

Коэффициент контингенции всегда меньше коэффициента ассоциации.

Связь считается подтвержденной, если А³0,5, К³0,3. По предыдущему примеру, А=0,82 - связь подтвержденная и тесная.

6. Коэффициент взаимной  сопряженности

Его рассчитали Пирсон и  Чупров.

Это мера тесноты связи  для двух качественных признаков, каждый из которых состоит более, чем  из двух групп. Коэффициент имеет  следующий вид:

- коэффициент Пирсона;

- коэффициент Чупрова,

где j2 - показатель взаимной сопряженности;

К1 - число значений первого признака

К2 - число значений второго признака.

j2=S(f2xy/fxfy)-1

Для исчисления j2 определяется сумма отношений квадратов частот каждой клетки корреляционной таблицы, изображающей связь качественных признаков, к произведению соответствующих частот каждого столбца и строки. Вычтя из этой суммы единицу получим j2.

Пример:

 

Полив

Урожай

Низк

Сред

Хорош

Всег

Низкий

18

12

10

40

Средний

10

15

15

40

Высокий

2

13

25

40

Всего

30

40

50

120


 

1+j2=S(а2чнчан)=182.30*40+122.40*40+102.40*50+102.30*40 и т.д.

 

Список литературы:

  1. Луговская Л. В. «Эконометрика» (в вопросах и ответах). М.: «Проспект», 2005.
  2. «Эконометрика» (под ред. И. И. Елисеевой). М.: «Финансы и статистика», 2001.
  3. Практикум по эконометрике (под ред. И. И. Елисеевой). М.: «Финансы и статистика», 2006.
  4. Кремер Н.Ш., Путко Б.А. Эконометрика: Учебник для вузов / Под ред. проф. Н.Ш. Кремера. – М.: ЮНИТИ-ДАНА, 2002.\
  5. Эконометрика: Учебник / Тихомиров Н.П., Дорохина Е.Ю. – М.: Издательство «Экзамен», 2003.
  6. Уланова Е.С., Забелин В.Н. Методы корреляционного и регрессионного анализа в агрометеорологии.- Л.: Гидрометеоиздат, 1990.- 207с.
  7. Магнус Я.Р., Катышев П.К., Пересецкий А.А. Эконометрика. Начальный курс: Учебник. – М.: Дело, 2001.
  8. Кулинич Е.И. Эконометрия. – М.: Финансы и статистика, 2001.

Информация о работе Показатели тесноты связи между факторами, пределы изменений