Оценить статистическую значимость параметров полученного уравнения и всей модели в целом.
Проверить наличие мультиколлинеарности в модели. Сделать вывод.
Мультиколлинеарность – это коррелированность двух или нескольких объясняющих переменных в уравнении регрессии. В результате высококоррелированные объясняющие переменные действуют в одном направлении и имеют недостаточно независимое колебание, чтобы дать возможность модели изолировать влияние каждой переменной. Проблема мультиколлинеарности возникает только в случае множественной регрессии. Мультиколлинеарность особенно часто имеет место при анализе макроэкономических данных (например, доходы, производство). Получаемые оценки оказываются нестабильными как в отношении статистической значимости, так и по величине и знаку (например, коэффициенты корреляции). Следовательно, они ненадежны. Значения коэффициентов R2 могут быть высокими, но стандартные ошибки тоже высоки, и отсюда t- критерии малы, отражая недостаток значимости.
Для проверки появления мультиколлинеарности применяются два метода, доступные во всех статистических пакетах:
Вычисление матрицы коэффициентов корреляции для всех объясняющих переменных. Если коэффициенты корреляции между отдельными объясняющими переменными очень велики, то, следовательно, они коллинеарны. Однако, при этом не существует единого правила, в соответствии с которым есть некоторое пороговое значение коэффициента корреляции, после которого высокая корреляция может вызвать отрицательный эффект и повлиять на качество регрессии.
|
|
Для измерения эффекта мультиколлинеарности используется показатель VIF – «фактор инфляции вариации»:
, где - значение коэффициента множественной корреляции, полученное для регрессора как зависимой переменной и остальных переменных . При этом степень мультиколлинеарности, представляемая в регрессии переменной , когда переменные включены в регрессию, есть функция множественной корреляции между и другими переменными .
Если , то объясняющие переменные, коррелирующие между собой, считаются мультиколлинеарными.
Существует еще ряд способов, позволяющих обнаружить эффект мультиколлинеарности:
Стандартная ошибка регрессионных коэффициентов близка к нулю.
Мощность коэффициента регрессии отличается от ожидаемого значения.
Знаки коэффициентов регрессии противоположны ожидаемым.
Добавление или удаление наблюдений из модели сильно изменяют значения оценок.
Значение F-критерия существенно, а t-критерия – нет.
Для устранения мультиколлинеарности может быть принято несколько мер:
|
|
Увеличивают объем выборки по принципу, что больше данных означает меньшие дисперсии оценок МНК. Проблема реализации этого варианта решения состоит в трудности нахождения дополнительных данных.
Исключают те переменные, которые высококоррелированны с остальными. Проблема здесь заключается в том, что возможно переменные были включены на теоретической основе, и будет неправомочным их исключение только лишь для того, чтобы сделать статистические результаты «лучше».
Объединяют данные кросс-секций и временных рядов. При этом методе берут коэффициент из, скажем, кросс-секционной регрессии и заменяют его на коэффициент из эквивалентных данных временного ряда.
Проделанные манипуляции позволяют предположить, что мультиколлинеарность может присутствовать (оценки любой регрессии будут страдать от нее в определенной степени, если только все независимые переменные не окажутся абсолютно некоррелированными), однако в данном примере это не влияет на результаты оценки регрессии. Следовательно, выделять «лишние» переменные не стоит, так как это отражается на содержательном смысле модели.
|
|
Дата добавления: 2019-11-25; просмотров: 178; Мы поможем в написании вашей работы! |
Мы поможем в написании ваших работ!