Скачать презентацию Эконометрика Лекция 6 Мультиколлинеарность Цели Скачать презентацию Эконометрика Лекция 6 Мультиколлинеарность Цели

л6_Экон(Кон)_мультикол_2012.ppt

  • Количество слайдов: 36

Эконометрика Лекция № 6 Эконометрика Лекция № 6

Мультиколлинеарность Мультиколлинеарность

Цели лекции 1. Объяснить сущность проблемы Мультиколлинеарности 2. Изучить последствия игнорирования 3. Указать средства Цели лекции 1. Объяснить сущность проблемы Мультиколлинеарности 2. Изучить последствия игнорирования 3. Указать средства обнаружения 4. Обсудить проблему выбора средств борьбы с мультиколлинеарностью 3

Предпосылки МНК (Условия Гаусса – Маркова) Гомоскедастичность Отсутствие автокорреляции 50. Модель является линейной относительно Предпосылки МНК (Условия Гаусса – Маркова) Гомоскедастичность Отсутствие автокорреляции 50. Модель является линейной относительно параметров 4

Дополнительные предпосылки МНК 60. Отсутствие мультиколлинеарности: между объясняющими переменными отсутствует строгая (сильная) линейная зависимость Дополнительные предпосылки МНК 60. Отсутствие мультиколлинеарности: между объясняющими переменными отсутствует строгая (сильная) линейная зависимость [70. ] Ошибки i имеют нормальное распределение: При выполнении этих предпосылок МНК-оценки коэффициентов множественной регрессии будут несмещенными, состоятельными и эффективными в классе линейных оценок. 5

Коллинеарность и мультиколлинеарность Термин «коллинеарность» характеризует линейную связь между двумя объясняющими переменными. «Мультиколлинеарность» означает Коллинеарность и мультиколлинеарность Термин «коллинеарность» характеризует линейную связь между двумя объясняющими переменными. «Мультиколлинеарность» означает линейную связь между более чем двумя объясняющими переменными. На практике всегда используется один термин – «Мультиколлинеарность» 6

Виды мультиколлинеарности 1. Строгая(совершенная) мультиколлинеарность – наличие линейной функциональной связи между объясняющими переменными (иногда Виды мультиколлинеарности 1. Строгая(совершенная) мультиколлинеарность – наличие линейной функциональной связи между объясняющими переменными (иногда также и зависимой). (perfect) 2. Нестрогая мультиколлинеарность – наличие сильной линейной корреляционной связи между объясняющими переменными (иногда также и зависимой). (imperfect) 7

Интерпретация множественной линейной регрессии Интерпретация: коэффициент регрессии при переменной X 1 выражает предельный прирост Интерпретация множественной линейной регрессии Интерпретация: коэффициент регрессии при переменной X 1 выражает предельный прирост зависимой переменной при изменении переменной X 1 , при условии постоянства других переменных: 8

Интерпретация множественной линейной регрессии Оценка коэффициента регрессии: Величина оценки коэффициента регрессии формируется под влиянием Интерпретация множественной линейной регрессии Оценка коэффициента регрессии: Величина оценки коэффициента регрессии формируется под влиянием не только связи изучаемого фактора с зависимой переменной, но и структуры связей между объясняемыми переменными 9

Суть строгой мультиколлинеарности 10 Суть строгой мультиколлинеарности 10

Вывод: Совершенная мультиколлинеарность не позволяет однозначно определить коэффициенты регрессии и разделить вклады объясняющих переменных Вывод: Совершенная мультиколлинеарность не позволяет однозначно определить коэффициенты регрессии и разделить вклады объясняющих переменных Х 1 и Х 2 в их влиянии на зависимую переменную Y. В этом случае невозможно сделать обоснованные статистические выводы о коэффициентах регрессии. 11

Нестрогая мультиколлинеарность. Связь между объясняющими переменными – корреляционная 12 Нестрогая мультиколлинеарность. Связь между объясняющими переменными – корреляционная 12

Сложность проблемы мультиколлинеарности 1. Корреляционные связи есть всегда. Проблема мультиколлинеарности – сила проявления связей. Сложность проблемы мультиколлинеарности 1. Корреляционные связи есть всегда. Проблема мультиколлинеарности – сила проявления связей. 2. Однозначных критериев мультиколлинеарности не существует. 3. Строгая мультиколлинеарность нарушает предпосылку 60 теоремы Гаусса-Маркова и делает построение регрессии невозможным. 4. Нестрогая мультиколлинеарность затрудняет работу, но не препятствует получению правильных выводов. 13

Причины возникновения мультиколлинеарности 1. Ошибочное включение в уравнение регрессии двух или более линейно зависимых Причины возникновения мультиколлинеарности 1. Ошибочное включение в уравнение регрессии двух или более линейно зависимых переменных. 2. Две (или более) объясняющих переменных, в нормальной ситуации слабо коррелированные, становятся в конкретной выборке сильно коррелированными 3. В модель включается объясняющая переменная, сильно коррелирующая с зависимой переменной (такая переменная называется доминантной). 14

Мультиколлинеарность как результат логической ошибки Ошибочное признание независимыми содержательно зависимых переменных: Оценка коэффициентов уравнения Мультиколлинеарность как результат логической ошибки Ошибочное признание независимыми содержательно зависимых переменных: Оценка коэффициентов уравнения невозможна! 15

Неизбежность мультиколлинеарности Мультиколлинеарность – нормальное явление. Практически любая модель содержит мультиколлинеарность. 1. 2. Мы Неизбежность мультиколлинеарности Мультиколлинеарность – нормальное явление. Практически любая модель содержит мультиколлинеарность. 1. 2. Мы не обращаем внимания на мультиколлинеарность до появления явных симптомов. 3. Только чрезмерно сильные связи становятся помехой. 16

Механизм действия мультиколлинеарности Мультиколлинеарность проявляется в совместном действии факторов: 1. Построить модель – значит Механизм действия мультиколлинеарности Мультиколлинеарность проявляется в совместном действии факторов: 1. Построить модель – значит определить вклад каждого фактора. 2. Если два или более фактора изменяются только совместно, их вклад по отдельности становится невозможно различить. 3. Чем более сильно коррелированы переменные, тем труднее различить их вклад. 17

Зависимость мультиколлинеарности от выборки Мультиколлинеарность – явление, проявляющееся на уровне выборки: 1. В одной Зависимость мультиколлинеарности от выборки Мультиколлинеарность – явление, проявляющееся на уровне выборки: 1. В одной выборке мультиколлинеарность может быть сильной, в другой слабой. 2. Выборочные данные следует предварительно всесторонне исследовать. 3. Полезен расчет выборочных коэффициентов корреляции, ковариационной матрицы и ее определителя. 18

Последствия мультиколлинеарности 1. Оценки коэффициентов остаются несмещенными. 2. Стандартные ошибки коэффициентов увеличиваются. 3. Вычисленные Последствия мультиколлинеарности 1. Оценки коэффициентов остаются несмещенными. 2. Стандартные ошибки коэффициентов увеличиваются. 3. Вычисленные t-статистики занижены. 4. Неустойчивость оценок. 5. Возможно получение неверного знака у коэффициента регрессии. 19

6. Численная неустойчивость процедуры оценивания, вызванная ошибками машинного округления и их накоплением. 7. Высокая 6. Численная неустойчивость процедуры оценивания, вызванная ошибками машинного округления и их накоплением. 7. Высокая коррелированность коэффициентов лишает смысла их интерпретацию. 8. Общее качество уравнения, а также оценки переменных, не связанных мультиколлинеарностью, остаются незатронутыми. 9. Чем ближе мультиколлинеарность к строгой (совершенной), тем серьезнее ее последствия. 20

Последствия мультиколлинеарности: увеличение стандартных ошибок коэффициентов Для уравнения с объясняющими переменными X 1 и Последствия мультиколлинеарности: увеличение стандартных ошибок коэффициентов Для уравнения с объясняющими переменными X 1 и X 2 21

Последствия мультиколлинеарности: увеличение стандартных ошибок коэффициентов Практически отсюда следует возможность получить незначимый коэффициент или Последствия мультиколлинеарности: увеличение стандартных ошибок коэффициентов Практически отсюда следует возможность получить незначимый коэффициент или «неправильный» знак Типичная ситуация. 1. Оба коэффициента в теоретической модели положительны. 2. Оба парных коэффициента корреляции между объясняющими и зависимой переменной положительны. 3. Парный коэффициент корреляции между объясняющими переменными положителен, причем корреляция между ними сильнее, чем у каждой с зависимой переменной. В этой ситуации у одного из коэффициентов практически всегда «неправильный» знак 22

Обнаружение мультиколлинеарности. 1. Высокие R 2 и F-статистика, но некоторые (или даже все) коэффициенты Обнаружение мультиколлинеарности. 1. Высокие R 2 и F-статистика, но некоторые (или даже все) коэффициенты незначимы, т. е. имеют низкие t-статистики. 2. Высокие парные коэффициенты корреляции. 3. Высокие частные коэффициенты корреляции. 4. Знаки коэффициентов регрессии противоположны ожидаемым. 5. Добавление или удаление наблюдений из выборки сильно изменяют значения оценок. 23

Частные коэффициенты корреляции Частный коэффициент корреляции – коэффициент корреляции между 2 переменными, очищенный от Частные коэффициенты корреляции Частный коэффициент корреляции – коэффициент корреляции между 2 переменными, очищенный от влияния других переменных. Частный коэффициент корреляции может существенно отличаться от «обычного» коэффициента корреляции r 12 24

Общий случай для частных коэффициентов корреляции 25 Общий случай для частных коэффициентов корреляции 25

Обнаружение мультиколлинеарности. Основной признак Внешним признаком наличия мультиколлинеарности служат слишком большие значения элементов матрицы Обнаружение мультиколлинеарности. Основной признак Внешним признаком наличия мультиколлинеарности служат слишком большие значения элементов матрицы Основной признак мультиколлинеарности: определитель корреляционной матрицы R близок к нулю: 26

Обнаружение мультиколлинеарности 4. Исследование матрицы 4. 1 Определитель матрицы D близок к нулю (одного Обнаружение мультиколлинеарности 4. Исследование матрицы 4. 1 Определитель матрицы D близок к нулю (одного порядка с накапливающимися ошибками вычислений) 4. 2 Минимальное собственное значение матрицы D близко к нулю 4. 3 27

Нормы матриц 28 Нормы матриц 28

Обнаружение мультиколлинеарности Статистика F имеет распределение Фишера с V 1 =m – 1 V Обнаружение мультиколлинеарности Статистика F имеет распределение Фишера с V 1 =m – 1 V 2 = n-m степенями свободы. Если коэффициент Rj 2 статистически незначим, то Хj не является линейной комбинацией других переменных и ее можно оставить в уравнении регрессии. 29

Критерии Феррара - Глобера 1. Но: Мультиколлинеарность между всеми переменными отсутствует 30 Критерии Феррара - Глобера 1. Но: Мультиколлинеарность между всеми переменными отсутствует 30

Критерии Феррара – Глобера 2. Но: Мультиколлинеарность между Хк и остальными переменными отсутствует 31 Критерии Феррара – Глобера 2. Но: Мультиколлинеарность между Хк и остальными переменными отсутствует 31

Критерии Феррара – Глобера Но: Мультиколлинеарность между Хi и Xj отсутствует При справедливости начальной Критерии Феррара – Глобера Но: Мультиколлинеарность между Хi и Xj отсутствует При справедливости начальной гипотезы представленная статистика подчиняется теоретическому распределению Стьюдента 32

Методы устранения мультиколлинеарности 1. Изменить или увеличить выборку. 2. Исключить из модели одну из Методы устранения мультиколлинеарности 1. Изменить или увеличить выборку. 2. Исключить из модели одну из переменных. 3. Преобразовать мультиколлинеарные переменные: - использовать нелинейные формы; - использовать агрегаты (линейные комбинации переменных); - использовать первые разности вместо самих переменных. 4. Использовать при оценке коэффициентов метод главных компонент или другие специальные процедуры расчета коэффициентов при плохой обусловленности 33

Устранение мультиколлинеарности. Преобразование переменных Пусть эмпирическое уравнение регрессии имеет вид: где X 1, X Устранение мультиколлинеарности. Преобразование переменных Пусть эмпирическое уравнение регрессии имеет вид: где X 1, X 2 коррелированные переменные В моделях: мультиколлинеарность отсутствует. 34

Смещенные оценки. Ридж - регрессия Переход от несмещенных оценок к смещенным, обладающим меньшим рассеянием. Смещенные оценки. Ридж - регрессия Переход от несмещенных оценок к смещенным, обладающим меньшим рассеянием. (геометр. ) 35

Метод главных компонент Факторный(компонентный) анализ. Одна из основных трудностей – содержательная интерпретация главных компонент. Метод главных компонент Факторный(компонентный) анализ. Одна из основных трудностей – содержательная интерпретация главных компонент. 36