Оценка параметров систем уравнений



7.1. Невзаимозависимые системы

, e - k-вектора-строки центрированных значений изучаемых (эндогеных) переменных и их случайных ошибок; E( e ) = 0, E( e / e ) = s 2 W;

 - n-вектор-строка центрированых значений независимых факторов (экзогенных переменных);

A - n ´ k-матрица коэффициентов регрессии;

 - система уравнений регрессии;

e - та же система по N наблюдениям; в каждом наблюдении матожидание ошибок равно нулю, их матрица ковариации одинакова (равна s 2 W) и они не скоррелированы по наблюдениям.

                                    ,

где , т.е. факт скоррелированности ошибок разных изучаемых переменных ( ) не создает дополнительных проблем, и уравнения системы могут оцениваться по отдельности с помощью обычного МНК.

Пусть для коэффициентов матрицы A имеются априорные ограничения, и эта матрица имеет, например, следующую структуру:

                                  ,

где ai - ni-вектор-столбец коэффициентов в i-м уравнении (для i-й изучаемой переменной); . Т.е. для каждой изучаемой переменной имеется свой набор объясняющих факторов с N ´ ni-матрицей наблюдений  ( ), и система уравнений записывается как совокупность внешне не связанных между собой уравнений:

                      , .

Поскольку ошибки скоррелированы, правильная оценка параметров регрессии дается решением следущих уравнений:

          ,

где  - элемент матрицы W -1.

Эта оценка совпадает с обычной МНК-оценкой , если матрица W диагональна.

 

7.2. Взаимозависимые или одновременные уравнения. Проблема идентификации.

 

Уравнения регрессии записываются в форме без свободного члена.

X - N ´ k-матрица наблюдений за изучаемыми переменными x;

Z - N ´ (n+1)-матрица наблюдений за независимыми факторами z;

B - k ´ k-матрица параметров регрессии при изучаемых переменных;  и b ll = 1 - условия нормализации, т.е. предполагается, что в конечном счете в левой части l-го уравнения остается только l-я переменная, а остальные изучаемые переменные переносятся в правую часть;

A - (n+1) ´ k-матрица параметров регрессии при независимых факторах;

e - N ´ k-матрица значений случайных ошибок e по наблюдениям;

xB = zA + e, или XB = ZA + e - структурная форма системы уравнений регрессии;

x = zAB - 1 + e B - 1, или X = ZAB - 1 + e B - 1 - приведенная форма системы;

D = AB - 1 - (n+1) ´ k-матрица параметров регрессии приведенной формы. Для их оценки используется МНК: .

                        DB - A = 0 или WH = 0,

где (n+1) ´ (n+k+1)-матрица ,

(n+k+1) ´ k-матрица ,

- условия для оценки параметров структурной формы.

В общем случае этих условий недостаточно. Необходимы дополнительные условия. Пусть для параметров l-го уравнения имеется дополнительно r l условий:

                                     R lh l = 0,

где R l - r l ´ (n+k+1)-матрица дополнительных условий;

 - (n+k+1)-вектор-столбец  параметров l-го уравнения - l-й столбец матрицы H.

 - общие условия для определения структурных параметов l-го уравнения, где Wl - (n+r l+1) ´ (n+k+1)-матрица.

Они позволяют определить искомые параметры с точностью до постоянного множителя (с точностью до выполнения условий нормализации b ll = 1), если ранг матрицы Wl равен n+k. Для этого необходимо, чтобы ; необходимо и достаточно, чтобы ранг матрицы R lH равнялся k - 1.

l-е уравнение не идентифицировано, если ; оно точно идентифицировано, если  и ранг Wl равен n+k; сверхидентифицировано, если  и строки Rl линейно не зависмы.

Обычно строки матрицы Rl являются ортами, т.е. дополнительные ограничения исключают некоторые переменные из структурной формы. Тогда, если kl и n l - количества, соответственно, изучаемых переменных и независимых факторов в l-м уравнении, то для его идентификации необходимо, чтобы .

Дальнейшее изложение ведется в предположении, что строки матрицы Rl - орты.

 

7.3. Оценка параметров отдельного уравнения

Xl - N ´ kl-матрица наблюдений за изучаемыми переменными xl, входящими в l-е уравнение;

Xl - N-вектор-столбец наблюдений за l-й переменной x l;

 - N ´ (kl - 1)-матрица Xl без столбца Xl наблюдений за ;

b l - kl-вектор-столбец параметров при изучаемых переменных в l-м уравнении;

b l - (kl - 1)-вектор-столбец b l с обратным знаком и без l-го элемента (без элемента b ll = 1);

Z l - N ´ (n l+1)-матрица наблюдений за независимыми факторами zl, входящими в l-е уравнение;

a l - (n l+1)-вектор-столбец параметров при этих факторах;

e l - N-вектор-столбец остатков e l в l-м уравнении по наблюдениям;

 или  - l-е уравнение регрессии.

Применение обычного МНК к этому уравнению дает в общем случае смещенные оценки.

Если данное уравнение точно идентифицировано, то для оценки его параметров можно использовать косвенный метод (КМ) наименьших квадратов. С помощью МНК оцениваются параметры приведенной формы системы уравнений, через которые однозначно выражаются структурные параметры данного уравнения. Можно записать уравнения для этой оценки. Действительно, условия

                                   

эквивалентны

                           ,

где  - kl ´ k-матрица, полученная из Ik вычеркиванием нужных строк;

 - аналогичная (n l+1) ´ (n+1)-матрица для Al.

Тогда для Bl и Al, удовлетворяющим требуемым условиям, выполняется следующее:

                 ,

и требования WHl = 0 можно записать в форме (переходя к обозначениям оценок соответствующих величин)

, (т.к.  и )

                                   или ,

где (n+1)-вектор-столбец  (l-й столбец матрицы D);

(n+1) ´ (kl - 1)-матрица  (матрица, составленная из столбцов матрицы D, соответствующих переменным ).

Это - система уравнений для нахождения искомых параметров. Она имеет единственное решение в случае точной идентификации уравнения, т.е., если ее матрица

                                              

квадратна, размерности n+1 и не вырождена (необходимое и достаточное условие точной идентификаци уравнения).

Для сверхидентифицированного уравнения можно применить двухшаговый метод (2М) наименьших квадратов.

На 1-м шаге с помощью МНК оцениваются параметры приведенной формы для переменных :

                                ,

где Vl - N ´ (kl-1)-матрица остатков по уравнениям;

и определяются расчетные значения этих переменных (“очищенные” от ошибок):

                          .

На 2-м шаге с помощью МНК оцениваются искомые параметры структурной формы из уравнения:

                            .

Можно определить единый оператор 2М-оценивания. Поскольку

 и ,

этот оператор записывается так (1-я форма оператора):

, или в более “прозрачной” - 2-й форме (учитывая, что ):

.

Если уравнение не идентифицировано, то обращаемая матрица в данном операторе вырождена. Если уравнение точно идентифицировано, то 2М-оценка совпадет с КМ-оценкой.

Для сверхидентифицированного уравнения можно использовать также метод наименьшего дисперсионного отношения (МНДО). Строгое обоснование его применимости вытекает из метода максимального правдоподобия.

Пусть bl в уравнении X lbl = Z la l + e l оценено, и X lbl рассматривается как единая эндогенная переменная. В результате применения МНК определяются:

             ,

             ,

              .

Теперь находится остаточная сумма квадратов при условии, что все экзогенные переменные входят в l-е уравнение. Она равна

                    , где .

Тогда bl должны были бы быть оценены так, чтобы

                 .

(иначе было бы трудно понять, почему в этом уравнении присутствуют не все экзогенные переменные).

Решение этой задачи приводит к следующим условиям:

                 ,

из которых f находится как минимальный корень соответствующего характеристического уравнения, а bl определяется с точностью до постоянного множителя (с точностью до нормировки bll = 1).

В общем случае f > 1, но . Если данное уравнение точно идентифицировано, то f = 1, и МНДО-оценки совпадают с КМ- и 2М-оценками.

Оператор

позволяет получить так называемые оценки k-класса (не путать с k - количеством эндогенных переменных в системе).

При k = 0, они являются обычными МНК-оценками для l-го уравнения; при k = 1, это - 2М-оценки; при k = f, - МНДО-оценки. 2М-оценки занимают промежуточное положение между МНК- и МНДО-оценками (т.к. f > 1). Исследования показывают, что эффективные оценки получаются при k < 1.

 

7.4. Оценка параметров всех (идентифицированных) уравнений

Из приведенной формы системы уравнений следует, что

          ,

и далее , т.е. в общем случае все эндогенные переменные скоррелированы с ошибками во всех уравнениях. Это является основным препятствием для применения обычного МНК ко всем уравнениям по отдельности.

Но в случае, если в матрице B все элементы, расположенные ниже главной диагонали, равны нулю (т.е. в правой части l-го уравнения могут появляться только более младшие эндогенные переменные , и последней компонентой любого вектора xl является xl), а в матрице W, наоборот, равны нулю все элементы, расположенные выше главной диагонали или эта матрица диагональна, то e l не скоррелирован с переменными  при любом l. Это - рекурсивная система, и для оценки ее параметров можно применять МНК к отдельным уравнениям.

Для оценки параметров всех идентифицированных уравнений системы можно применить трехшаговый метод (3М) наименьших квадратов.

Предпологается, что идентифицированы все k уравнений:

              ,

где .

При условии, что матрица ковариации ошибок эндогенных переменых s 2 W одинакова во всех наблюдениях (гипотеза гомоскедастичности)

        .

В уравнении                        (*)

 рассматривается как вектор n+1 наблюдений за одной эндогенной переменной, а  - как матрица n+1 наблюдений за nl+kl+1 экзогенными переменными. Поскольку матрица ковариации остатков по этому уравнению равна  (т.е. отлична от s 2 IN), для получения оценок cl параметров g l нужно использовать ОМНК:

        .

Это - еще одна (3-я) форма записи оператора 2М-оценивания.

Первые два шага 3М совпадают с 2М, но цель их не в получении оценок cl, а в том, чтобы оценить el, и затем получить оценки W матрицы s 2 W:

                               .

Теперь все уравнения (*) записываются в единой системе:

                 (**) ,

или

                                  ,

где Y - соответствующий k(n+1)-вектор-столбец наблюдений за изучаемой переменной;

Q - ´ -матрица наблюдений за экзогенными переменными;

g - - вектор-столбец параметров регрессии;

h - k(n+1)-вектор столбец остатков по наблюдениям.

Легко проверить, что матрица ковариации остатков h удовлетворяет следующему соотношению:

                                   ,

где Ä - операция прямого умножения матриц.

Для нее имеется оценка: k(n + 1) ´ k(n + 1)-матрица .

Эта матрица отлична от , поэтому на 3-м шаге 3М-оценивания к единой системе (**) применяется ОМНК и получается окончательная оценка c параметров g:

                        

В таком виде оператор 3М-оценивания используется для всех сверхидентифицированных уравнений. Для точно идентифицированных уравнений он имеет более сложную форму. Но для таких уравнений всегда можно применить КМ-оценивание.

 


Дата добавления: 2019-11-25; просмотров: 141; Мы поможем в написании вашей работы!

Поделиться с друзьями:






Мы поможем в написании ваших работ!