Шпаргалка по "эконометрике"

Автор работы: Пользователь скрыл имя, 24 Октября 2013 в 20:21, шпаргалка

Краткое описание

1. Парная регрессия и корреляция. Формулы для вычисления параметров модели. Экономическая интеграция параметров модели.
Парная регрессия представляет собой регрессию между двумя переменными – y и x , т. е. модель вида: , где y – зависимая переменная (результативный признак); x – независимая, или объясняющая, переменная (признак-фактор). Знак «^» означает, что между переменными x и y нет строгой функциональной зависимости, поэтому практически в каждом отдельном случае величина y складывается из двух слагаемых: , где y – фактическое значение результативного признака; – теоретическое значение результативного признака, найденное исходя из уравнения регрессии; e – случайная величина, характеризующая отклонения реального значения результативного признака от теоретического, найденного по уравнению регрессии. Случайная величина e называется также возмущением. Она включает влияние не учтенных в модели факторов, случайных ошибок и особенностей измерения

Прикрепленные файлы: 1 файл

0197010_53DEE_shpory_po_ekonometrike.doc

— 196.50 Кб (Скачать документ)

1. Парная регрессия  и корреляция. Формулы для вычисления  параметров модели. Экономическая  интеграция параметров модели.

Парная регрессия представляет собой регрессию между двумя переменными – y и x , т. е. модель вида: , где y – зависимая переменная (результативный признак); x – независимая, или объясняющая, переменная (признак-фактор). Знак «^» означает, что между переменными x и y нет строгой функциональной зависимости, поэтому практически в каждом отдельном случае величина y складывается из двух слагаемых: , где y – фактическое значение результативного признака; – теоретическое значение результативного признака, найденное исходя из уравнения регрессии; e – случайная величина, характеризующая отклонения реального значения результативного признака от теоретического, найденного по уравнению регрессии. Случайная величина e называется также возмущением. Она включает влияние не учтенных в модели факторов, случайных ошибок и особенностей измерения.

В парной регрессии выбор вида математической функции  может быть осуществлен тремя методами: 1) графическим; 2) аналитическим, т.е. исходя из теории изучаемой взаимосвязи; 3) экспериментальным. Линейная регрессия имеет вид: y = a+b*x+E это уравнение позволяет по заданным значениям фактора x находить теоретические значения результативного признака, подставляя в него фактические значения фактора x . Построение линейной регрессии сводится к оценке ее параметров – a и b. Формально a – значение y при   x =0. Если признак-фактор x не может иметь нулевого значения, то вышеуказанная трактовка свободного члена a не имеет смысла, т.е. параметр a может не иметь экономического содержания. Параметр b называется коэффициентом регрессии. Его величина показывает среднее изменение результата с изменением фактора на одну единицу. Готовые формулы для нахождения параметров модели:

 

2. Ковариация, коэффициенты  корреляции и детерминации: формулы  для их расчета; статистическая  и геометрическая интерпретация.

Ковариация – числовая характеристика совместного распределения двух случайных величин, равная математическому ожиданию произведения отклонений этих  случайных величин от их математических ожиданий. Дисперсия – характеристика случайной величины, определяемая как математическое ожидание квадрата отклонения случайной величины от ее математического ожидания.

Уравнение регрессии  всегда дополняется показателем  тесноты связи. При использовании линейной регрессии в качестве такого показателя выступает линейный коэффициент корреляции r xy, который можно рассчитать по следующей формуле:

Линейный коэффициент  корреляции находится в пределах:  -1 £ r xy £1 .Чем ближе абсолютное значение r xy к единице, тем сильнее линейная связь между факторами (при rxy = ±1 имеем строгую функциональную зависимость). Коэффициент детерминации характеризует долю дисперсии результативного признака y , объясняемую регрессией, в общей дисперсии результативного признака: .

 

3. Оценка значимости  уравнения регрессии и его  параметров.

После того как найдено уравнение  линейной регрессии, проводится оценка  значимости как уравнения в целом, так и отдельных его параметров. Проверить значимость уравнения регрессии – значит установить, соответствует ли математическая модель, выражающая зависимость между переменными, экспериментальным данным и достаточно ли включенных в уравнение объясняющих переменных (одной или нескольких) для описания зависимой переменной. Чтобы иметь общее суждение о качестве модели из относительных отклонений по каждому наблюдению, определяют среднюю ошибку аппроксимации: Средняя ошибка аппроксимации не должна превышать 8–10%.

Оценка значимости уравнения регрессии в целом производится на основе F -критерия Фишера, которому предшествует дисперсионный анализ. Согласно основной идее дисперсионного анализа, общая сумма квадратов отклонений переменной y от среднего значения y раскладывается на две части – «объясненную» и «необъясненную»: где – общая сумма квадратов отклонений; – сумма квадратов отклонений, объясненная регрессией (или факторная сумма квадратов отклонений); – остаточная сумма квадратов отклонений, характеризующая влияние неучтенных в модели факторов. Определение дисперсии на одну степень свободы приводит дисперсии к сравнимому виду. Сопоставляя факторную и остаточную дисперсии в расчете на одну степень свободы, получим величину F -критерия Фишера: Фактическое значение F -критерия Фишера сравнивается с

табличным значением    F табл( a; k 1; k2 ) при уровне значимости a и степенях свободы  k1 = m и k 2= n -m-1.При этом, если фактическое значение F - критерия больше табличного, то признается статистическая значимость уравнения в целом.

Для парной линейной регрессии m =1, поэтому

Величина F -критерия связана с коэффициентом детерминации R ее можно рассчитать по следующей формуле:

 

В парной линейной регрессии  оценивается значимость не только уравнения в целом, но и отдельных его параметров. С этой целью по каждому из параметров определяется его стандартная ошибка: m b и m a. Стандартная ошибка коэффициента регрессии определяется по формуле: , где

Величина стандартной  ошибки совместно с t –распределением Стьюдента при n-2 степенях свободы применяется для проверки существенности коэффициента регрессии и для расчета его доверительного интервала. Для оценки существенности коэффициента регрессии его величина сравнивается с его стандартной ошибкой, т.е. определяется фактическое значение t -критерия Стьюдента: которое затем сравнивается с табличным значением при определенном уровне значимости a и числе степеней свободы (n-2). Доверительный интервал для коэффициента регрессии определяется как b± tтабл ×mb. Поскольку знак коэффициента регрессии указывает на рост результативного признака y при увеличении признака-фактора x (b>0), уменьшение результативного признака при увеличении признака-фактора (b<0) или его независимость от независимой переменной (b =0), то границы доверительного интервала для коэффициента регрессии не должны содержать противоречивых результатов, например, -1,5 £ b £ 0,8. Такого рода запись указывает, что истинное значение коэффициента регрессии одновременно содержит положительные и отрицательные величины и даже ноль, чего не может быть.

Стандартная ошибка параметра a определяется по формуле: Процедура оценивания существенности данного параметра не отличается от рассмотренной выше для коэффициента регрессии. Вычисляется t -критерий: , его величина сравнивается с табличным значением при n - 2 степенях свободы.

 

4. Парная нелинейная  регрессия. Критерий для определения  параметров модели. Линеаризация  моделей. Индексы корреляции и  детерминации, их свойства.

Если между экономическими явлениями существуют нелинейные соотношения, то они выражаются с помощью соответствующих нелинейных функций. Различают два класса нелинейных регрессий: 1. Регрессии, нелинейные относительно включенных в анализ объясняющих переменных, но линейные по оцениваемым параметрам, например y = a + b/ x ; 2. Регрессии, нелинейные по оцениваемым параметрам, например – y = a × xb – степенная; – показательная – y = a ×bx.

Регрессии нелинейные по включенным переменным приводятся к линейному  виду простой заменой переменных. y =a +b /x может быть использована для характеристики связи удельных расходов сырья, материалов, топлива от объема выпускаемой продукции, времени обращения товаров от величины товарооборота, процента прироста заработной платы от уровня безработицы и в других случаях. Гипербола приводится к линейному уравнению простой заменой: z =1/ x . Несколько иначе обстоит дело с регрессиями нелинейными по оцениваемым параметрам, которые делятся на два типа: нелинейные модели внутренне линейные (приводятся к линейному виду с помощью соответствующих преобразований, например, логарифмированием) и нелинейные модели внутренне нелинейные (к линейному виду не приводятся). К внутренне линейным моделям относятся, например, степенная функция – y = a × xb, показательная –y = a ×bx . Среди нелинейных моделей наиболее часто используется степенная функция y = a × xb ×e , которой предшествует процедура линеаризации - приводится к линейному виду логарифмированием: ln y = ln(a × xb ×e ); ln y = ln a + b × ln x + lne ; Y = A + b × X + E, где Y = ln y, X = ln x, A = ln a, E = lne . Параметр b – является коэффициентом эластичности. (Коэффициент эластичности показывает, на сколько процентов измениться в среднем результат, если фактор изменится на 1%.) Так как для функций коэффициент эластичности зависит от соответствующего значения фактора x , то обычно рассчитывается средний коэффициент эластичности:

Построению показательной модели y= a × bx ×e предшествует процедура линеаризации переменных путем логарифмирования ln y = ln( ); ln y = ln a + x × ln b + lne ; Y = A + x × B+ E, где Y = ln y, B= ln b, A = ln a, E = lne .

Уравнение нелинейной регрессии, так же, как и в случае линейной зависимости, дополняется показателем тесноты связи. В данном случае это индекс корреляции:

, где  – общая дисперсия результативного признака y, – остаточная дисперсия. Величина данного показателя находится в пределах: 0 £ r xy£1. Чем ближе значение индекса  корреляции к единице, тем теснее связь рассматриваемых признаков, тем более надежно уравнение регрессии. Квадрат индекса корреляции носит название индекса детерминации и характеризует долю дисперсии результативного признака y ,  объясняемую регрессией, в общей дисперсии результативного признака: т.е. имеет тот же смысл, что и в линейной регрессии; Индекс детерминации r2xy можно сравнивать с коэффициентом детерминации r2xy для обоснования возможности применения линейной функции. Чем больше кривизна линии регрессии, тем величина r2xy меньше r2xy. А близость этих показателей указывает на то, что нет необходимости усложнять форму уравнения регрессии и можно использовать линейную функцию. Индекс детерминации используется для проверки существенности в целом уравнения регрессии по F -критерию Фишера: где r2xy – индекс детерминации, n – число наблюдений, m – число

параметров при переменной x . Фактическое значение F -критерия сравнивается с табличным при уровне значимости a и числе степеней свободы k 2= n -m -1 (для остаточной суммы квадратов) и k 1= m (для факторной суммы квадратов). О качестве нелинейного уравнения регрессии можно также судить и по средней ошибке аппроксимации, которая, так же как и в линейном случае, вычисляется по обычной формуле.

 

5. Множественная регрессия:  суть; спецификация модели; линейные  и нелинейные модели; критерии  для определения параметров модели.

Парная регрессия может  дать хороший результат при моделировании, если влиянием других факторов, воздействующих на объект исследования, можно пренебречь. Если же этим влиянием пренебречь нельзя, то в этом случае следует попытаться выявить влияние других факторов, введя их в модель, т.е. построить уравнение множественной регрессии

y = (x1, x2 , ..., xm ),  где y – зависимая переменная (результативный признак), x i – независимые, или объясняющие, переменные (признаки-факторы). Множественная регрессия широко используется в решении проблем спроса, доходности акций, при изучении функции издержек производства, в макроэкономических расчетах и целом ряде других вопросов эконометрики. В настоящее время множественная регрессия – один из наиболее распространенных методов в эконометрике. Основная цель множественной регрессии – построить модель с большим числом факторов, определив при этом влияние каждого из них в отдельности, а также совокупное их воздействие на моделируемый показатель. Построение уравнения множественной регрессии начинается с решения вопроса о спецификации модели. Он включает в себя два круга вопросов: отбор факторов и выбор вида уравнения регрессии.

Возможны разные виды уравнений множественной регрессии: линейные и нелинейные. Ввиду четкой интерпретации параметров наиболее широко используется линейная функция. В линейной множественной регрессии y=a+b1x1+b2x2+...+ bmxm+Е параметры при x называются коэффициентами «чистой» регрессии. Они характеризуют среднее изменение результата с изменением соответствующего фактора на единицу при неизмененном значении других факторов, закрепленных на среднем уровне.

 

6. Что представляют собой  фиктивные переменные?

 

 

 

 

 

 

 

 

 

 

 

7. Отбор факторов при  построении множественной регрессии.  Выделение факторов, ответственных  за мультиколлинеарность. Определение  параметров модели.

Отбор факторов обычно осуществляется в две стадии: на первой подбираются факторы исходя из сущности проблемы; на второй – на основе матрицы показателей корреляции определяют статистики для параметров регрессии.

Коэффициенты интеркорреляции (т.е. корреляции между объясняющими переменными) позволяют исключать из модели дублирующие факторы. Считается, что две переменные явно коллинеарны, т.е. находятся между собой в линейной зависимости, если rxixj ³ 0,7. Если факторы явно коллинеарны, то они дублируют друг друга и один из них рекомендуется исключить из регрессии. Предпочтение при этом отдается не фактору, более тесно связанному с результатом, а тому фактору, который при достаточно тесной связи с результатом имеет наименьшую тесноту связи с другими факторами. Наибольшие трудности в использовании аппарата множественной регрессии возникают при наличии мультиколлинеарности факторов, когда более чем два фактора связаны между собой линейной зависимостью, т.е. имеет место совокупное воздействие факторов друг на друга.

Наличие мультиколлинеарности факторов может означать, что некоторые факторы будут всегда действовать в унисон. В результате вариация в исходных данных перестает быть  полностью независимой и нельзя оценить воздействие каждого фактора в отдельности.

Включение в модель мультиколлинеарных факторов нежелательно в силу следующих последствий: 1. Затрудняется интерпретация параметров множественной регрессии как характеристик действия факторов в «чистом» виде, ибо факторы коррелированы; параметры линейной регрессии теряют экономический смысл. 2. Оценки параметров ненадежны, обнаруживают большие стандартные ошибки и меняются с изменением объема наблюдений (не только по величине, но и по знаку), что делает модель непригодной для анализа и прогнозирования.

Для оценки мультиколлинеарности факторов может использоваться определитель матрицы парных коэффициентов корреляции между факторами. Если бы факторы не коррелировали между собой, то матрица парных коэффициентов корреляции между факторами была бы единичной матрицей, поскольку все недиагональные элементы                rxixj(i ¹ j ) были бы равны нулю. Если же, наоборот, между факторами существует полная линейная зависимость и все коэффициенты корреляции равны единице, то определитель такой матрицы равен нулю.

Информация о работе Шпаргалка по "эконометрике"