1 / 21

Ekonometria stosowana

Ekonometria stosowana. Wykład 2 Autokorelacja składnika losowego. Sferyczność macierzy E( ee T ). Dodatnia autokorelacja. Dlaczego autokorelacja jest zła?(1).

Télécharger la présentation

Ekonometria stosowana

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Ekonometria stosowana Wykład 2 Autokorelacja składnika losowego Andrzej Torój- Lato 2013/2014

  2. Sferyczność macierzy E(eeT)

  3. Dodatnia autokorelacja

  4. Dlaczego autokorelacja jest zła?(1) ... nie skorzystaliśmy z założenia o sferycznej macierzy kowariancji składnika losowego, więc jego złamanie nie spowoduje, że parametry będą obciążone. (Pamiętajmy, że autokorelacja może być symptomem błędu specyfikacji, a ten może powodować obciążenie.)

  5. Dlaczego autokorelacja jest zła?(2) z diagonali tej macierzy otrzymujemy błędy standardowe oszacowań przy sferycznych zakłóceniach: przy niesferycznych zakłóceniach: • WNIOSKI: • utrata efektywności • błędne wnioskowanie oparte na macierzy kowariancji skł. losowego • nieadekwatność wnioskowania ze statystyk t i F

  6. Przyczyny autokorelacji • Inercja zjawisk gospodarczych • Podejście autokorelacyjne • Błąd specyfikacji modelu • Funkcyjnej • Dynamicznej • Pominięcie zmiennej objaśniającej • Podejście respecyfikacyjne

  7. Ćwiczenie • funkcja produkcji • rynek paliw w USA • model popytu na benzynę • brytyjskie dane makroekonomiczne • krzywa Philipsa wsparta (adaptacyjnymi) oczekiwaniami

  8. Szacujemy podstawowe równanie regresji: ...i drugie pomocnicze równanie, w którym składnik losowy uzależniamy dodatkowo od jego P poprzednich wartości: jeżeli nie ma autokorelacji, poprzednie wartości epsilona nie objaśnią bieżącej wniosek: R2 pomocniczego modelu powinno być niskie ~ Test mnożnika Lagrange’a (LM) UWAGA! test asymptotyczny

  9. autokorelacja ? brak ? autokorelacjadodatnia autokorelacji ujemna 0 dL dU 2 4-dU 4-dL 4 współczynnik autoregresji pierwszego rzędu Test Durbina-Watsona • ograniczenia: • model z wyrazem wolnym • bez opóźnionej zmiennej objaśnianiej • normalny rozkład składnika losowego • wykrywa maksymalnie autokorelację rzędu 1 • posiada obszar niekonkluzywności

  10. Test h-Durbina Odpowiedź Durbina na zarzut, że test DW jest zbyt skłonny nie wykrywać autokorelacji, gdy regresorem jest opóźniona zmienna objaśniana. (Nerlove, Wallis 1966 – zob. na stronie) Wysokie wartości d świadczą o autokorelacji. d~N(0,1).

  11. Statystyka Ljunga-Boxa • Statystyka testowa, za pomocą której orzekamy, czy występuje autokorelacja do rzędu P włącznie: • Wysokie wartości (statystyczna istotność) Q świadczą o autokorelacji.

  12. Ćwiczenie • Czy w naszych modelach jest autokorelacja? • Czy możemy stosować test DW w każdym z tych trzech przypadków? • Rozważ autokorelację wyższych rzędów. • Uzupełnij specyfikację krzywej Philipsa o regresor d_infl opóźniony o 1 okres. Jaki jest wynik testu h-Durbina?

  13. Odporne błędy oszacowań • Newey i West (1987) skonstruowali estymator macierzy wariancji-kowariancji parametrów w warunkach autokorelacji:

  14. Ćwiczenie • Oszacuj jeszcze raz modele z odpornymi błędami oszacowań. • Porównaj poprzednie i nowe wartości statystyk t i ich nowe p-value. Jakie decyzje weryfikacyjne uległy (mogły ulec) zmianie?

  15. Pomnóżmy obie strony równania lewostronnie: Składnik losowy po przekształceniu danych X i y jest sferyczny: Estymator UMNK to estymator MNK dla równania z przekształconymi danymi: Uogólniona MNK (UMNK, GLS) ~

  16. UMNK – zastosowanie • Niekiedy znamy (zakładamy) macierz kowariancji parametrów. • Skąd wziąć macierz W, gdy po prostu mamy model z autokorelacją? • Zakładamy określony schemat autokorelacyjny dla składnika losowego. • Macierz W jest wtedy funkcją parametrów ri. • Same parametry ri możemy oszacować na podstawie modelu KMNK. itd.

  17. Metoda Cochrane’a-OrcuttaUMNK dla autokorelacji I rzędu • Model KMNK z autokorelacją, na jego podstawie przyjmujemy r (wsp. autokorelacji I rzędu reszt). • Transformujemy dane (y, x) jak wyżej. • Szacujemy model na transformowanych danych.

  18. Metoda Praisa-Winstena • Cochrane i Orcutt przy transformacji danych pomijają pierwszą obserwację. • Prais i Winsten nie usuwają jej, a transformują w inny sposób:

  19. Uogólniona metoda Cochrane’a- Orcutta • Ogólniejsza niż klasyczna metoda C-O, ale wciąż szczególny przypadek UMNK • Zakładamy dla składnika losowego proces AR rzędu P: • Z modelu KMNK z autokorelacją szacujemy parametry. Macierz W jest funkcją tych parametrów. • Szacujemy model UMNK za pomocą macierzy W.

  20. Ćwiczenie • Oszacuj nasze 3 modele (o ile to uzasadnione) za pomocą UMNK, zakładając autokorelację odpowiedniego rzędu. • Przyjmij autokorelację I rzędu i porównaj wyniki oszacowań metodą C-O, P-W i H-L. • Porównaj parametry modelu UMNK i MNK. Co się zmieniło? Porównaj wyniki różnych testów. • Sprawdź, czy w modelach oszacowanych za pomocą UMNK nie ma dodatkowej autokorelacji. W tym celu zapisz reszty modelu, oszacuj dla nich odpowiedni proces autoregresyjny i dokonaj analizy jego reszt.

  21. Literatura do wykładu 2 • Welfe 3.1, 3.2 • … więcej o opisie problemów spowodowanych autokorelacją składnika losowego i zróżnicowaniu ich przyczyn • Welfe 3.3 • Jak uprościć ogólny schemat autoregresyjny do schematu I rzędu • Welfe 3.5-3.7 • UMNK – niektóre warianty • Dla chętnych: • Klasyczny tekst uzasadniający nieadekwatność statystyki DW do modeli autoregresyjnych (na stronie) • Welfe – cały rozdział 3

More Related